En la era digital actual, la inteligencia artificial (IA) ha comenzado a desempeñar un papel cada vez más prominente en la creación de contenido. Esta tendencia ha suscitado un debate significativo sobre la ética y la legalidad de presentar obras generadas por IA como si fueran creadas por humanos.
Recientemente, casos como el de Sports Illustrated, que utilizó escritores generados por IA, han suscitado un debate público y profesional sobre si el contenido de IA presentado como creado por humanos debería ser legal.
Encuesta revela opinión pública sobre IA y autoría humana
Los resultados de una encuesta realizada por el AI Policy Institute reveló las percepciones del público estadounidense sobre la presentación de contenido generado por inteligencia artificial (IA) como si fuera creado por humanos. Según esta encuesta, un 80% de los participantes considera que esta práctica debería ser ilegal.
La pregunta clave de la encuesta se centró en el caso de Sports Illustrated. Estos recientemente admitieron haber utilizado IA para escribir artículos, asignándoles bylines ficticios.
Este incidente desató una amplia gama de reacciones, tanto en el público como en la industria. La respuesta inicial de Sports Illustrated fue negar que el contenido fuera generado por IA, atribuyendo la autoría a escritores humanos contratados a través de un tercero, AdVon Commerce.
Los resultados de la encuesta muestran una clara tendencia: una mayoría abrumadora de los participantes expresó su desaprobación hacia la idea de que los editores les presenten contenido generado por inteligencia artificial sin las debidas divulgaciones.
Este sentimiento se extendió a través de líneas partidarias. Entre ellos, demócratas, republicanos e independientes, mostrando respuestas similares dentro de un margen de nueve puntos porcentuales.
Además de la cuestión de la legalidad, la encuesta también indagó sobre la percepción de la ética en el uso de IA para crear contenido. Aquí, un 84% de los encuestados estuvo de acuerdo en que tal uso de la IA sería antiético. Estos datos sugieren una preocupación generalizada sobre la integridad y transparencia en la creación de contenido mediático.
Ética y legalidad en la autoría con contenido de inteligencia artificial
Desde una perspectiva ética, el uso de IA para crear contenido y presentarlo como humano despierta preocupación sobre la autenticidad y la transparencia. La ética periodística tradicionalmente valora la claridad en la autoría y la fuente del contenido, principios que se ven desafiados por el uso de IA.
La falta de divulgación sobre el uso de IA puede percibirse como un engaño al público, erosionando la confianza en los medios.
En el ámbito legal, aunque aún no existe una legislación específica que regule esta práctica, el creciente empleo de IA en la creación de contenido podría impulsar la necesidad de nuevas leyes o regulaciones.
La legalidad de presentar contenido de IA como humano podría depender de factores como la precisión del contenido, los derechos de autor y la protección al consumidor.
La encuesta del AI Policy Institute, que reveló que un 80% de los estadounidenses considera que esta práctica debería ser ilegal, indica una posible dirección para futuras legislaciones.
Además, la cuestión legal se entrelaza con la ética en términos de responsabilidad. ¿Quién es responsable cuando un contenido generado por IA es inexacto o difamatorio? La atribución clara y la responsabilidad son esenciales en el periodismo, y el uso de IA plantea desafíos en este sentido.
Es decir, los consumidores tienen derecho a saber si el contenido que consumen es generado por humanos o por inteligencia artificial, como ChatGPT. Una distinción que puede influir en su percepción y confianza en la información presentada.
¿Qué soluciones se plantean para el uso de inteligencia artificial?
Una de las medidas más discutidas es la divulgación y el uso de marcas de agua en el contenido de inteligencia artificial. Esta práctica implicaría etiquetar claramente el contenido generado por IA, proporcionando así transparencia y permitiendo a los consumidores tomar decisiones informadas sobre su consumo de medios.
La encuesta del AI Policy Institute indica que hay un apoyo considerable para la implementación de tales medidas. Sin embargo, las respuestas a las preguntas sobre la efectividad de la marca de agua y otras formas de divulgación fueron menos concluyentes. Esto sugiere que, aunque la idea de una mayor transparencia es ampliamente aceptada, aún existe incertidumbre sobre la mejor manera de implementarla.
La efectividad de estas soluciones depende en gran medida de su aceptación y adopción por parte de los creadores y distribuidores de contenido. La divulgación obligatoria y el uso de marcas de agua podrían ser pasos efectivos hacia una mayor transparencia. Pero, también requieren un compromiso por parte de la industria para ser implementados de manera coherente y universal.
Por otro lado, existen preocupaciones sobre si estas medidas serían suficientes para abordar las cuestiones éticas más amplias relacionadas con la utilización de IA en la creación de contenido. Sobre todo, porque no abordan directamente cuestiones como la precisión, la responsabilidad y la integridad periodística.