BeInCrypto - Luego del reciente lanzamiento de ChatGPT, distintos investigadores a nivel internacional realizaron pruebas en relación a las respuestas brindadas por la herramienta a distintas preguntas.
Las respuestas brindadas por la herramienta provista en distintos formatos como ensayos y artículos fueron alarmantes para los investigadores, quienes se pusieron a trabajar enseguida, para alertar sobre los peligros de las herramientas de IA y los casos de la desinformación.
Gordon Crovitz, codirector ejecutivo de NewsGuard afirmó:
“Esta herramienta va a ser la herramienta más poderosa para difundir desinformación que jamás haya existido en Internet. La creación de una nueva narrativa falsa ahora se puede hacer a una escala dramática y con mucha más frecuencia, es como tener agentes de IA que contribuyen a la desinformación”.
La desinformación en tiempos de IA
La inteligencia artificial se encuentra en un momento de rápida expansión, en este sentido es como cada vez más personas deciden probar el uso de ChatGPT.
Uno de los principales retos en torno al uso de la herramientas de IA como es ChatGPT, es la transmisión de información errónea o la generación de desinformación.
Los investigadores aseguran que: la tecnología generativa proveniente de herramientas de las inteligencias artificiales, podrían hacer que la desinformación sea más barata y sencilla de desarrollar.
ChatGPT actualmente cuenta con una limitación en la actualización de su base de datos, la cual se encuentra limitada a información del 2021, por ello cualquier información luego de ese año no existe para IA.
En este sentido cuando un usuario realiza una pregunta a la herramienta, la información que recibió podría ser desactualizada, por ende terminar en una situación de desinformación.
Los preocupación entorno al mal uso de las herramientas de IA
ChatGPT cuenta actualmente con una llegada a más de 100 millones de personas en todo el mundo. Imaginar que podría suceder si la herramienta fuera utilizada con intenciones negativas o peligrosas para el público, podría causar un daño inimaginable.
En 2020, los investigadores del Centro sobre Terrorismo, Extremismo y Contraterrorismo del Instituto de Estudios Internacionales de Middlebury, en Estados Unidos, descubrieron que GPT-3, la tecnología detrás de ChatGPT, tenía un conocimiento profundo de las comunidades extremistas y podría generar polémica en foros de desinformación que discuten el nazismo, por mencionar un ejemplo.
Como es de conocimiento público, ChatGPT cuenta con un equipo de personas y máquinas detrás, las cuales se encargan de revisar toda la información que la herramienta brinda al público y poner los filtros adecuados al respecto.
OpenAI cuenta con políticas las cuales no permiten utilizar la tecnología con la finalidad de difundir o influenciar a los usuarios o intentar influir en temas políticos.
Asimismo, la empresa lanzó una nueva herramienta la cual permite diferenciar el contenido creado por bots de IA y seres humanos, aunque la herramienta aún cuenta con varias limitaciones en su uso.
La industria de la IA se encuentra ganando cada vez más terreno en los escenarios tecnológicos internacionales y la guerra entre distintas empresas por liderar este nuevo espacio ha comenzado, un claro ejemplo ha sido el reciente lanzamiento de Bard por parte de Google.
Es fundamental que existan controles para evitar los riesgos de la desinformación por parte de las nuevas herramientas de IA, ya que al ser cada vez más populares y contar con llegada a millones de personas en el mundo, el peligro en torno a brindar información errónea puede aumentar.
El post Investigadores alertan sobre ChatGPT y la transmisión de desinformación fue visto por primera vez en BeInCrypto.