El avance de la IA en la actualidad se hace cada vez más inminente, y con ello, Wikipedia, la enciclopedia libre digital más grande de Internet, se ha visto afectada en la veracidad de sus artículos gracias al creciente plagio con inteligencia artificial que acarrean estas herramientas.

Las herramientas de IA generativas, pueden llegar a escribir textos casi parecidos a los humanos, incluyendo información que, a simple vista, parecería creíble.

Al ser Wikipedia una fuente de información visitada por millones de usuarios, la cual ha empezado a emplear herramientas como ChatGPT u otras para crear y revisar sus artículos, se plantea la cuestión de ¿qué tanto nos podemos fiar de los contenidos digitales en la era actual? ¿Han sido escritos realmente por una persona real? ¿Contienen información que ha sido verificada y no hecha a partir de la nada como muchas IAs suelen hacer?

Jimmy Wales, cofundador de Wikipedia, aseguró que consideraba esto tanto como una oportunidad como una amenaza. En ocasiones pasadas, el socio de Wikimedia España, Miguel Ángel García, afirmó de igual manera encontrar con frecuencia artículos en Wikipedia con aparente coherencia, pero que terminaban cayendo en redundancias que saltan a la vista ante el ojo humano como un texto generado artificialmente.

Aunado a esto, entre algunos signos que podrían indicar patrones de artículos escritos con IA, los usuarios de Wikipedia señalan fuentes y artículos académicos inexistentes, así como datos inventados o falsificados.

Así, desde el auge de la inteligencia artificial, no han sido pocos los casos que han salido a la luz en los cuales la IA presenta una diatriba en el ámbito del plagio, lo que al mismo tiempo pone en duda a la vista de muchos la fiabilidad que se le puede llegar a tener en los contenidos web actualmente.

Un ejemplo de esto se puede ver en cómo el año pasado la firma editora de la reconocida revista Sports Illustrated, The Arena Group, habría despedido a su editor ejecutivo semanas después de que el medio fuera acusado de publicar artículos generados por inteligencia artificial. 

Volviendo a Wikipedia, ya previamente se encuentran más antecedentes de su lucha contra las acusaciones de plagio con inteligencia artificial. Específicamente puntualizamos el caso de CNET, un reconocido portal digital sobre tecnología, la cual en Wikipedia se terminó convirtiéndose en una fuente altamente fiable, hasta que fue señalada de plagio al haber estado publicando artículos hechos con IA manteniendo un perfil bajo. Claramente, esto desató una discusión entre los editores de Wikipedia acerca de la credibilidad de ésta y su tratamiento en el futuro.

Lo anterior no solo resultó en un decrecimiento de la imagen pública de CNET, sino que de igual manera demostró cómo las fuentes de Wikipedia y sus acciones repercuten de igual manera en la fiabilidad de la misma. Lo que solo pone más en duda la veracidad de su información.

Viendo esto, se hace evidente que los antecedentes de plagio con inteligencia artificial no son pocos y ya han escalado en gran medida en la escena pública pero, ¿qué implicaciones puede acarrear eso dentro del marco legal que encierra a las herramientas generativas que cada vez ganan más espacio entre Internet, y de esto, más aún, entre las vidas de sus usuarios?

Qué dicen las leyes sobre el plagio y la inteligencia artificial

Recientemente, un artículo publicado por Harvard, se preguntaba: “la IA crea contenido acudiendo a una gran biblioteca de información la cual ya ha sido creada, pero ¿está cometiendo plagio?”. Se sabe que ChatGPT ha sido entrenado con hasta 40 Terabytes de texto, lo que se traduce a cerca de 40 millones de libros.

Por otro lado, se sabe que el plagio no es en sí mismo un delito penal, en la normativa venezolana el plagio no es considerado un hecho punible autónomo, al ser interpretado simplemente como una circunstancia agravante de cualquiera de los delitos previstos en la Ley sobre el Derecho de Autor, publicada en la Gaceta Oficial de la República de Venezuela número 4.638 Extraordinario el 1 de octubre de 1993.

De este modo, el artículo 122 de la anterior, destaca lo siguiente:

 “Las penas previstas en los artículos precedentes se aumentarán en la mitad cuando los delitos señalados sean cometidos respecto de una obra, producto o producción no destinados a la divulgación, o con usurpación de paternidad, o con deformación, mutilación u otra modificación de la obra, producto o producción que ponga en peligro su decoro o la reputación de una de las personas protegidas por la Ley (Resaltado fuera del texto).”

Por lo tanto, se sigue que en Venezuela el plagio solamente se valora penalmente en tanto es cometido de modo tal que incurra alguno de los delitos tipificados en la mencionada Ley, por ejemplo el delito de reproducción indebida de una obra protegida.

Sin embargo, en otros países el plagio con inteligencia artificial ha tratado de ser imputado con penas graves, como lo fue el año pasado el caso de un proyecto de Ley en Perú que buscaba, según destaca Infobae, condenar el plagio con inteligencia artificial hasta con 10 años de cárcel. Dicha condena formaría parte como agravante en la Ley de Delitos Informáticos, y en los casos de estafa, en el Código Penal. 

Curiosamente, gran parte de los motivos por los cuales esta condena podría ser implementada incluyen, justamente, los mismos aspectos señalados por los usuarios de Wikipedia que dificultan el afianzamiento de la confianza en la información presentada en los artículos o contenidos digitales: falsificación de contenido, reseñas falsas creadas con IA, manipulación de datos, entre otros.

En Venezuela, la Ley de Delitos Informáticos no menciona específicamente el plagio con inteligencia artificial, ni tampoco se ve reflejado en el Código Penal como un delito.

Qué le espera a Wikipedia en el futuro

Miguel Ángel García, socio de Wikimedia España, nuevamente, había recalcado que el problema real de Wikipedia no era tanto dentro de la misma, sino alrededor de ella:  “Veo un problema a medio plazo en relación con posibles textos generados con IA que se conviertan en fuentes aparentemente fiables en el mundo real. Cada vez surgen más periódicos digitales que publican casi cualquier cosa. Llega un punto en que hay gente que quiere referenciar textos con esos pseudomedios”.

La naturaleza colaborativa de Wikipedia pone en el peso en sus editores, y una verificación humana que dé paso a una información fiable verificada de manera humana, la cual si bien puede ser complementada con IA, debe ser cuidada en tanto que no debe sobrepasar la información artificialmente generada a la realmente cotejada por sus colaboradores. 

Se ha llegado a comentar de igual manera que una posible amenaza podría ser que herramientas in-web como asistentes de búsqueda propulsados por Gemini, ChatGPT o sus extensiones derivadas, reemplacen a Wikipedia en su puesto. A pesar de esto, solo representa una circularidad que se da debido a que, justamente el contenido presentado por los chatbots, suele ser aquel con el que han sido entrenados esos modelos.