A IA generativa está afetando gradualmente o conteúdo da Wikipédia.

Se você já tentou usar ferramentas de IA generativa, como open AI e ChatGPT, para gerar informações, perceberá que elas escrevem textos críveis e semelhantes aos humanos. Mas o problema é que elas são propensas a incluir informações errôneas.

Agora, a Wikipedia, a enciclopédia mundial que fornece informações de fontes confiáveis a centenas de milhões de pessoas, está usando essas mesmas ferramentas de IA generativa para criar, resumir e atualizar artigos.

Neste artigo, explicamos como a IA generativa está afetando a Wikipédia.

Conteúdo

O que é IA generativa?

A inteligência artificial generativa é uma inteligência artificial capaz de criar novos conteúdos, designs ou ideias por meio de algoritmos de aprendizado de máquina. O processo começa quando você insere um prompt que pode ser um texto, uma imagem, um vídeo, um design ou qualquer entrada que a IA possa analisar. Em seguida, a IA gera um novo conteúdo em resposta à solicitação.

Muitos redatores da Wikipédia usam ferramentas de IA generativas, como o Open AI ChatGPT, em seus artigos. Infelizmente, essas ferramentas de IA tendem a “alucinar” e produzir citações falsas, o que leva à desinformação.

Jimmy “Jimbo” Wales, fundador da enciclopédia colaborativa e da organização sem fins lucrativos Wikimedia, também concordou que não se pode confiar totalmente nas informações fornecidas pela IA generativa. Ele deu o exemplo de uma conversa que teve com o ChatGPT.

Jimmy perguntou ao bot se um avião havia se chocado contra o Empire State Building. Não, um avião não colidiu com o Empire State Building”, respondeu o bot. No entanto, o ChatGPT continuou a explicar como um bombardeiro B25 se chocou contra o Empire State Building. Essa resposta é contrária à resposta que ele compartilhou anteriormente.

IA generativa e Wikipedia

Por mais de 20 anos, a Wikipédia sempre se baseou no conteúdo criado e editado por voluntários em todo o mundo. Hoje, o site está disponível em 334 idiomas e fornece informações sobre quase todos os assuntos.

Mas, recentemente, tem havido uma preocupação crescente com a disseminação de artigos e resumos gerados por IA no site. Esses resumos de texto muitas vezes parecem precisos, mas, em uma análise mais detalhada, revelam-se completamente falsos.

Além das preocupações com a imprecisão dos dados, os wikipedistas também perceberam que a IA generativa cita fontes e artigos acadêmicos que não existem.

O risco para a Wikipédia é que as pessoas podem estar diminuindo a qualidade toda vez que publicam conteúdo que não é verificado.

Efeitos da IA generativa na Wikipédia

  1. Desinformação e desinformação

Milhões de pessoas acessam a Wikipédia diariamente, buscando informações confiáveis sobre tópicos que afetam suas vidas e moldam suas decisões. No entanto, o conteúdo de IA generativa publicado na plataforma torna mais difícil identificar se o conteúdo que parece realista foi verificado quanto aos fatos. A implicação é que a Wikipédia começa a perder sua credibilidade com as pessoas quando elas percebem que o conteúdo engana.

  1. Citações falsas

As ferramentas de IA generativa, como o Open AI ChatGPT, geralmente extraem dados de diferentes fontes, mas não citam as fontes. Isso pode promover novos tipos de plágio que ignoram os direitos dos autores do conteúdo original. Além disso, como as citações sempre foram cruciais para os pesquisadores, a implicação seria um trabalho acadêmico com citações erradas.

  1. Falta de empatia

A IA generativa é simplesmente uma máquina. Ela não é capaz de ter sentimentos humanos, como empatia. E isso afeta a maneira como ela escreve o conteúdo – sem graça e sem emoções. A falta de empatia dá aos editores trabalho dobrado, pois eles precisam editar incessantemente para que os artigos e resumos se adequem ao tom do site.

  1. Problemas para modelos futuros

Muitas empresas de IA usam os dados de código aberto da Wikipédia como fonte de treinamento para seus modelos de IA que consomem muitos dados. Se o conteúdo publicado na Wikipédia for gerado por IA, os futuros modelos não terão outra opção a não ser confiar nas informações fornecidas, que podem estar repletas de desinformação e imprecisões.

O relatório mostra que a Wikimedia Foundation, que hospeda o site da enciclopédia livre, está estudando a criação de ferramentas que ajudariam os voluntários a detectar facilmente o conteúdo gerado por bots; isso não exclui a possibilidade de os editores terem problemas de supervisão.

Conclusão

Embora haja especulações de que a IA generativa possa ser o fim da Wikipédia, essa suposição é um pouco exagerada.

No entanto, no ritmo em que mais conteúdo de IA generativa é publicado na Wikipédia, ela pode perder lentamente sua credibilidade entre seus usuários em todo o mundo.

Thierry Lavergne

Cofundador e diretor de tecnologia da Winston AI. Com uma carreira de mais de 15 anos em desenvolvimento de software, sou especialista em Inteligência Artificial e aprendizado profundo. Na Winston AI, lidero a visão tecnológica, com foco no desenvolvimento de soluções inovadoras de detecção de IA. Minha experiência anterior inclui a criação de soluções de software para empresas de todos os portes e sou apaixonado por expandir os limites da tecnologia de IA. Adoro escrever sobre tudo relacionado à IA e à tecnologia.