Skip to main content

La IA generativa está afectando gradualmente al contenido de Wikipedia.

Si alguna vez has probado a utilizar herramientas de IA generativa como open AI y ChatGPT para generar información, te darás cuenta de que escriben textos creíbles, parecidos a los humanos. Pero el problema es que suelen incluir información errónea.

Ahora, Wikipedia, la enciclopedia mundial que proporciona información de fuentes fiables a cientos de millones de personas, utiliza estas mismas herramientas de IA generativa para crear, resumir y actualizar artículos.

En este artículo, explicamos cómo la IA generativa está afectando a Wikipedia.

Contenido

¿Qué es la IA Generativa?

La inteligencia artificial generativa es una inteligencia artificial capaz de crear nuevos contenidos, diseños o ideas mediante algoritmos de aprendizaje automático. El proceso comienza cuando introduces una solicitud que puede ser un texto, una imagen, un vídeo, un diseño o cualquier dato que la IA pueda analizar. A continuación, la IA genera nuevos contenidos en respuesta a la solicitud.

Muchos redactores de Wikipedia utilizan herramientas de IA generativa como Open AI ChatGPT para sus artículos. Por desgracia, estas herramientas de IA tienden a «alucinar» y producir citas falsas, lo que conduce a la desinformación.

Jimmy «Jimbo» Wales, fundador de la enciclopedia colaborativa y de la organización sin ánimo de lucro Wikimedia, también se mostró de acuerdo en que no se puede confiar totalmente en la información proporcionada por la IA generativa. Puso como ejemplo una conversación que mantuvo con ChatGPT.

Jimmy preguntó al robot si un avión se había estrellado contra el Empire State Building. «No, un avión no se estrelló contra el Empire State», respondió el robot. Sin embargo, ChatGPT siguió explicando cómo un bombardero B25 se estrelló contra el Empire State Building. Esta respuesta es contraria a la que compartió anteriormente.

La IA generativa y Wikipedia

Durante más de 20 años, Wikipedia se ha basado siempre en contenidos creados y editados por voluntarios de todo el mundo. Hoy en día, el sitio está disponible en 334 idiomas y ofrece información sobre casi todos los temas.

Pero en los últimos tiempos ha crecido la preocupación por la generalización de los artículos y resúmenes generados por IA en el sitio. A menudo, estos resúmenes de texto parecen exactos pero, al mirarlos más de cerca, se revelan completamente falsos.

Aparte de la preocupación por la inexactitud de los datos, los wikipedistas también se han dado cuenta de que la IA generativa cita fuentes y artículos académicos que no existen.

El riesgo para Wikipedia es que la gente podría estar bajando la calidad cada vez que publican contenido que no está verificado.

Efectos de la IA Generativa en Wikipedia

  1. Desinformación y desinformación

Millones de personas consultan Wikipedia a diario en busca de información fiable sobre temas que afectan a sus vidas y determinan sus decisiones. Sin embargo, el contenido generativo de IA publicado en la plataforma hace más difícil identificar si el contenido que parece realista ha sido verificado. La implicación es que Wikipedia empieza a perder su credibilidad entre la gente una vez que ven que el contenido induce a error.

  1. Citaciones falsas

Las herramientas de IA generativa como Open AI ChatGPT a menudo extraen datos de distintas fuentes, pero no citan las fuentes. Puede promover nuevos tipos de plagio que ignoren los derechos de los autores del contenido original. Además, dado que las citas siempre han sido cruciales para los investigadores, la consecuencia sería un trabajo académico con citas erróneas.

  1. Falta de empatía

La IA generativa es simplemente una máquina. No es capaz de tener sentimientos humanos como la empatía. Y esto afecta a su forma de escribir contenidos: insípidos y carentes de emociones. La falta de empatía da doble trabajo a los redactores, que tienen que editar sin cesar para que los artículos y resúmenes se ajusten al tono del sitio.

  1. Problemas para futuros modelos

Muchas empresas de IA utilizan los datos de código abierto de Wikipedia como fuente de entrenamiento para sus modelos de IA ávidos de datos. Si los contenidos publicados en Wikipedia son generados por IA, los futuros modelos no tendrán más remedio que basarse en la información proporcionada, que puede estar llena de desinformación e imprecisiones.

Un informe indica que la Fundación Wikimedia, anfitriona del sitio web de la enciclopedia libre, está estudiando la creación de herramientas que ayuden a los voluntarios a detectar fácilmente los contenidos generados por bots; esto no excluye que los editores puedan tener problemas de supervisión.

Conclusión

Aunque se especula con que la IA generativa podría ser el fin de Wikipedia, esta suposición es un poco exagerada.

Sin embargo, al ritmo al que se publican más contenidos de IA generativa en Wikipedia, ésta podría perder lentamente su credibilidad entre sus usuarios de todo el mundo.

Thierry Lavergne

Cofundador y Director de Tecnología de Winston AI. Con una carrera de más de 15 años en el desarrollo de software, estoy especializado en Inteligencia Artificial y aprendizaje profundo. En Winston AI, lidero la visión tecnológica, centrándome en el desarrollo de soluciones innovadoras de detección de IA. Mi experiencia previa incluye la creación de soluciones de software para empresas de todos los tamaños, y me apasiona ampliar los límites de la tecnología de IA. Me encanta escribir sobre todo lo relacionado con la IA y la tecnología.