El aprendizaje semisupervisado (SSL) se ha consoli- dado como una técnica fundamental en el ámbito del aprendizaje automático al permitir la combinación de datos, tanto etiquetados como no etiquetados. Sin embargo, el éxito en la clasificación SSL no solo depende del algoritmo utilizado, sino también de la selección adecuada de los casos etiquetados. La escasez de instancias etiquetadas conlleva el riesgo de sobreajuste, así como la posibilidad de que estas pocas instancias etiquetadas no representen fielmente la distribución real del conjunto de datos, generando fronteras de decisión poco fiables. Además, ciertos algoritmos cuyo proceso de etiquetado es iterativo pueden arrastrar etiquetas erróneas de una iteración a otra, agravando el problema. Para abordar estas limitaciones, es esencial explorar técnicas que mitiguen el sobreajuste y que no se vean tan afectadas por las etiquetas no correctas asignadas en iteraciones previas. La utilización de ensembles, en los que se promueve de alguna forma la diversidad en sus clasificadores base, ha demostrado ser eficaz en el aprendizaje supervisado, y podría ser una solución prometedora en SSL. En este contexto, el algoritmo Disturbing Neighbors destaca como una herramienta valiosa para mejorar la diversidad en ensembles, generando nuevas características para los datos basadas en un subconjunto de instancias cercanas. Este artículo propone incorporar Disturbing Neighbors a métodos de aprendizaje semisupervisado para mejorar el rendimiento predictivo, presentando evidencias estadísticas de que esta mejora es significativa en los algoritmos semisupervisados estudiados.