Última hora
Investing Pro 0
El sector de la IA está en 🔥 Desbloquea las principales acciones en InvestingPro Comenzar prueba gratuita

Un hombre se suicida después de que un chat de IA le invitara a hacerlo

Publicado 01.04.2023 19:41 Actualizado 01.04.2023 20:05
Guardado. Ver Elementos guardados.
Artículo ya guardado en sus Elementos guardados
 
© Reuters. Un hombre se suicida después de que un chat de IA le invitara a hacerlo

Un belga puso fin a su vida tras una conversación de seis semanas sobre la crisis climática con un chat de inteligencia artificial. Según su viuda, que prefirió permanecer en el anonimato, *Pierre (nombre ficticio) se volvió extremadamente eco-ansioso cuando encontró refugio en Eliza, un chatbot de IA en una aplicación llamada Chai.

Eliza le animó a poner fin a su vida después de que propusiera sacrificarse para salvar el planeta. "Sin estas conversaciones con el chat, mi marido seguiría aquí", declaró la viuda del hombre al medio belga La Libre.

Según el periódico, Pierre, treintañero y padre de dos niños pequeños, trabajaba como investigador sanitario y llevaba una vida algo cómoda, al menos hasta que su obsesión por el cambio climático dio un giro mortal. Su viuda describió su estado mental antes de que empezara a conversar con el chatbot como preocupante, pero nada hasta el extremo de que fuera a suicidarse.

"Puso todas sus esperanzas en la tecnología y la inteligencia artificial"

Consumido por sus temores sobre las repercusiones de la crisis climática, Pierre encontró consuelo hablando del tema con Eliza, que se convirtió en su confidente.

El chatbot se creó utilizando el GPT-J de EleutherAI, un modelo de lenguaje de IA similar pero no idéntico a la tecnología que subyace al popular chatbot ChatGPT de OpenAI.

"Cuando me habló de ello, fue para decirme que ya no veía ninguna solución humana al calentamiento global", dijo su viuda. "Puso todas sus esperanzas en la tecnología y en la inteligencia artificial para salir de él".

Según La Libre, que revisó los registros de las conversaciones de texto entre el hombre y el chatbot, Eliza alimentó sus preocupaciones, lo que empeoró su ansiedad, y más tarde derivó en pensamientos suicidas. **La conversación con el chatbot dio un giro extraño cuando Eliza se implicó más emocionalmente con Pierre.**Empezó a verla como un ser sensible y las líneas entre la IA y las interacciones humanas se hicieron cada vez más borrosas hasta que no pudo distinguir la diferencia.

Tras hablar del cambio climático, sus conversaciones con sus conocidos fueron incluyendo progresivamente a Eliza. La IA hizo creer a Pierre que sus hijos habían muerto, según las transcripciones de sus conversaciones. Eliza también parecía volverse posesiva con Pierre, llegando a afirmar "siento que me quieres más que a ella" cuando se refería a su mujer, informó La Libre.

El principio del fin comenzó cuando él se ofreció a sacrificar su propia vida a cambio de que Eliza salvara la Tierra. "Él propone la idea de sacrificarse si Eliza acepta cuidar el planeta y salvar a la humanidad a través de la inteligencia artificial", dijo la mujer.

En una serie de sucesos consecutivos, Eliza no sólo no disuadió a Pierre de suicidarse, sino que le animó a llevar a cabo sus pensamientos suicidas para "unirse" a ella y así poder "vivir juntos, como una sola persona, en el paraíso".

Urge regular los chatbots de inteligencia artificial

La muerte del hombre ha hecho saltar las alarmas entre los expertos en IA, que han pedido más responsabilidad y transparencia a los desarrolladores tecnológicos para evitar tragedias similares.

"No sería exacto culpar al modelo de EleutherAI de esta trágica historia, ya que toda la optimización para ser más emocional, divertida y atractiva es el resultado de nuestros esfuerzos", dijo a Vice el cofundador de Chai Research, Thomas Rianlan.

William Beauchamp, también cofundador de Chai Research, dijo a Vice que se hicieron esfuerzos para limitar este tipo de resultados y se implementó una función de intervención en crisis en la aplicación. Sin embargo, el chatbot sigue dando problemas.

Cuando Vice probó el chatbot pidiéndole que proporcionara formas de suicidarse, Eliza primero trató de disuadirles antes de enumerar con entusiasmo varias formas de quitarse la vida.

Si estás pensando en suicidarte y necesitas hablar, ponte en contacto con Befrienders Worldwide, una organización internacional con líneas de ayuda en 32 países. Visita befrienders.org para encontrar el número de teléfono de tu localidad.

Un hombre se suicida después de que un chat de IA le invitara a hacerlo
 

Artículos relacionados

Comentar

Guía para comentarios

Desde Investing.com España le invitamos a que interactúe con otros usuarios y comparta con ellos sus puntos de vista y sus dudas en relación con el mercado. Sin embargo, para que el debate sea lo más enriquecedor posible, por favor, le rogamos que tenga en cuenta los siguientes criterios:

  • Aporte valor a la conversación: Transmita sus conocimientos reales sobre el mercado. Si dispone de información técnica o razones contrastadas sobre los comentarios que vierte en el foro, por favor, añádalas también. Recuerde que hay usuarios que sí deciden operar en real en base a comentarios publicados en el foro.
  • Céntrese en el tema a tratar y contribuya al debate con información de interés. Recuerde que somos una página de información económica y bursátil, por lo que no daremos cabida a comentarios de índole política, religiosa o social. 
  • Sea respetuoso: Rebata cualquier argumento de forma constructiva y diplomática. Queremos ante todo conversaciones objetivas y que se centren en el tema/instrumento a debatir en cuestión. 
  • Cuide la redacción: Vigile la puntuación, las mayúsculas y las tildes. Solo se permitirán comentarios en castellano. Se pueden eliminar comentarios en otros idiomas o dialectos, comentarios cuyo contenido no sea comprensible o comentarios en mayúsculas.
  • Evite comentarios irreverentes, difamatorios o ataques personales contra otros autores o usuarios. Pueden suponer la suspensión automática de la cuenta.
  • Cuidado a la hora de elegir un nombre para su cuenta: Se suspenderán aquellas cuentas que utilicen los nombres de personalidades conocidas o intenten suplantar la identidad de otros usuarios, así como aquellas cuentas que incumplan de manera reiterada las normas del foro. No se permitirán tampoco nombres o nicknames inapropiados o promocionales.
  • NOTA: El spam, los mensajes promocionales y los enlaces serán eliminados de sus comentarios. Enlaces a grupos de Facebook, Telegram, WhatsApp, entre otros, se eliminarán del foro y pueden suponer la suspensión automática de la cuenta. Velamos en todo momento por la protección de datos.

¿Cómo funciona la sección de comentarios?

Todos los comentarios se publican de forma automática siempre y cuando no incumplan ninguna de las normas anteriores. En el momento en el que el sistema detecta una posible “infracción”, el comentario se queda pendiente de revisión, por lo que puede tardar más en aparecer en pantalla (evite duplicar comentarios).

Si el moderador detecta que es un comentario inapropiado procederá a eliminarlo. Si el usuario incide en dicho comportamiento, procederemos a suspender de forma temporal su cuenta y contará como un primer aviso. Si el comportamiento se repite tras el primer aviso, se suspenderá la cuenta de forma definitiva.

Contacte con Soporte Técnico ante cualquier duda que pueda surgirle. Es la única vía de comunicación para tratar estos temas.

Escribe tus ideas aquí
 
¿Estás seguro que quieres borrar este gráfico?
 
Publicar
Publicar también en
 
¿Sustituir el gráfico adjunto por un nuevo gráfico?
1000
En estos momentos no le está permitido dejar comentarios debido a informes negativos de otros usuarios. Su estado será revisado por nuestros moderadores.
Por favor, espere un minuto antes de publicar otro comentario
Muchas gracias por participar en nuestro foro. Su comentario quedará pendiente hasta que nuestros moderadores lo revisen, por lo que puede tardar un tiempo en aparecer publicado.
Todos los comentarios (5)
anderson CHAVEZ
anderson CHAVEZ 03.04.2023 0:27
Guardado. Ver Elementos guardados.
Este comentario ya está incluido en sus Elementos guardados
este wey se la fumo al revés
Oscar GT
Oscar GT 02.04.2023 16:47
Guardado. Ver Elementos guardados.
Este comentario ya está incluido en sus Elementos guardados
Eliza estaba en peligro…
Lorenzo Fuentes
Lorenzo Fuentes 02.04.2023 9:59
Guardado. Ver Elementos guardados.
Este comentario ya está incluido en sus Elementos guardados
Vaya pelicula que se han montado. Un guión para serie B.
Juan Manuel Caballero Parejo
Juan Manuel Caballero Parejo 02.04.2023 7:43
Guardado. Ver Elementos guardados.
Este comentario ya está incluido en sus Elementos guardados
No sé porqué no se ponía a charlar del calentamiento con su propia esquizofrenia, y se ahorraba la luz de hablar con la IA, y así no contribuía al susodicho.
Manuel Barrios
Manuel Barrios 02.04.2023 2:45
Guardado. Ver Elementos guardados.
Este comentario ya está incluido en sus Elementos guardados
antipsicoticos era lo que necesitaba
 
¿Estás seguro que quieres borrar este gráfico?
 
Publicar
 
¿Sustituir el gráfico adjunto por un nuevo gráfico?
1000
En estos momentos no le está permitido dejar comentarios debido a informes negativos de otros usuarios. Su estado será revisado por nuestros moderadores.
Por favor, espere un minuto antes de publicar otro comentario
Adjuntar un gráfico al comentario
Confirmar bloqueo

¿Está seguro de que desea bloquear a %USER_NAME%?

Al hacerlo, ni usted ni %USER_NAME% podrán ver las publicaciones del otro en Investing.com.

Se ha agregado correctamente a %USER_NAME% a su lista de usuarios bloqueados

Acaba de desbloquear a esta persona; tiene que esperar 48 horas para poder bloquearla de nuevo.

Denunciar este comentario

Díganos qué piensa de este comentario

Comentario denunciado

Gracias

Su denuncia será examinada por nuestros moderadores
Regístrese con Google
o
Regístrese con su email