Anuncios

La enciclopedia colaborativa más grande del mundo ha decidido que la inteligencia artificial no puede ser un autor.

En una movida que sienta un precedente crucial para la fiabilidad del conocimiento en línea, la comunidad de editores de Wikipedia ha adoptado formalmente una nueva directriz que prohíbe el uso de texto generado por sistemas de IA en los artículos de la plataforma.

La norma, ratificada esta semana, establece una posición clara en defensa de la autoría humana, aunque deja dos ventanas abiertas para usos auxiliares específicos.

Desde la explosión de los modelos de lenguaje grande (LLM) como ChatGPT, la cuestión de cómo integrar —o rechazar— el contenido generado por IA ha agitado a comunidades editoriales, plataformas educativas y medios de comunicación en todo el mundo. 

Wikipedia, un proyecto construido durante décadas sobre el principio de la verificación colaborativa, se ha enfrentado a un aumento de ediciones realizadas total o parcialmente por asistentes de IA, lo que ha generado debates internos sobre la calidad, la originalidad y la trazabilidad de la información.

La nueva regla no surge de una decisión corporativa de arriba hacia abajo, sino del proceso democrático característico de Wikipedia, donde miles de editores voluntarios discuten y votan las políticas. Esta acción se enmarca en la política fundamental de la plataforma sobre la fiabilidad de las fuentes, que exige que el contenido esté respaldado por referencias publicadas y verificables.

La inteligencia artificial, al generar texto sintético que puede contener alucinaciones o sesgos inadvertidos, se considera incompatible con este pilar fundamental.

Anuncios


La nueva directriz es contundente en su objetivo principal: el texto que compone los artículos de Wikipedia debe ser escrito por humanos. Sin embargo, reconoce que las herramientas de IA pueden tener utilidad en roles de apoyo, por lo que define dos excepciones precisas:

  • Generación de código de software: Se permite usar IA para crear o explicar fragmentos de código que se incluyan en los artículos, siempre que este código sea luego verificado por un editor humano.
  • Asistencia para la comprensión: Los editores pueden utilizar chatbots y LLMs para ayudar a entender conceptos complejos, resumir fuentes o superar bloqueos de escritura, pero el texto final publicado debe ser una reformulación original del editor.

La norma enfatiza que la responsabilidad última sobre la exactitud y neutralidad del contenido recae siempre en la persona editora, no en la herramienta utilizada.

Cualquier uso de IA en el proceso de edición debe ser transparente y declarado en los comentarios de la edición cuando sea relevante.

La prohibición de texto generado por IA en Wikipedia no es un rechazo a la tecnología, sino una delimitación cuidadosa de su uso. Refleja una tendencia más amplia en la que instituciones de conocimiento buscan equilibrar la innovación con la integridad.

Mientras otras plataformas luchan por gestionar el diluvio de contenido sintético, Wikipedia, con su modelo comunitario único, ha logrado establecer una línea clara y consensuada.

La medida plantea una pregunta fundamental para el futuro de la información digital: ¿quién es responsable del conocimiento que consumimos? Al priorizar la autoría y la auditoría humana, Wikipedia ofrece una respuesta: la confianza se construye con transparencia y responsabilidad, atributos que, por ahora, siguen siendo dominio exclusivo de las personas.