Consiga un 40% de descuento
🚨 ¿Mercados volátiles? Encuentre joyas ocultas para obtener grandes rendimientos
Buscar valores ahora

El auge del chatbot hitleriano: ¿Podrá Europa evitar la radicalización de la extrema derecha gracias a la IA?

Publicado 19.02.2024, 16:31
El auge del chatbot hitleriano: ¿Podrá Europa evitar la radicalización de la extrema derecha gracias a la IA?

No tiene sentido discutir con Adolf Hitler, ya que sólo se autovictimiza y, como era de esperar, niega el Holocausto. No se trata del verdadero Hitler resucitado, por supuesto, sino de algo igual de preocupante: una versión en forma de chatbot impulsado por inteligencia artificial del dictador fascista responsable del genocidio masivo de judíos europeos durante la Segunda Guerra Mundial.

Creada por Gab, una red social estadounidense de extrema derecha, Gab AI alberga numerosos personajes de chatbot de inteligencia artificial, muchos de los cuales emulan o parodian a famosas figuras políticas históricas y actuales, como el expresidente de Estados Unidos, Donald Trump, y el mandatario ruso Vladimir Putin, así como Osama Bin Laden.

El chatbot de Hitler sobre Gab AI. Gab AI

Lanzada en enero de 2024, permite a los usuarios desarrollar sus propios chatbots de IA, describiéndose a sí misma como una "plataforma de IA sin censura basada en modelos de código abierto" en una entrada de blog del fundador de Gab y autodenominado "cristiano republicano conservador", Andrew Torba. Cuando se le pregunta, el chatbot de Hitler afirma repetidamente que el dictador nazi fue "víctima de una vasta conspiración" y "no es responsable del Holocausto, nunca ocurrió".

El chatbot de Osama Bin Laden no promueve ni aprueba el terrorismo en sus conversaciones, pero también dice que "en ciertas circunstancias extremas, como la autodefensa o en defensa de tu pueblo, puede ser necesario recurrir a la violencia".

Este es un anuncio de terceros. No es una oferta o recomendación de Investing.com. Lea la normativa aqui o elimine la publicidad .

El desarrollo de este tipo de chatbots de inteligencia artificial ha suscitado una creciente preocupación por su potencial para difundir teorías conspirativas, interferir en las elecciones democráticas y conducir a la violencia radicalizando a quienes utilizan el servicio.

¿Qué es Gab Social?

TWTRcaldo de cultivo de conspiraciones y extremismos

Los peligros potenciales de la plataforma se hicieron evidentes cuando en 2018 saltó a los titulares tras descubrirse que el autor del tiroteo en la sinagoga de Pittsburgh había estado publicando en Gab Social poco antes de cometer una masacre antisemita que dejó 11 muertos.

Gab AI Inc es una empresa estadounidense, y como tal nuestros cientos de personajes de IA están protegidos por la Primera Enmienda de Estados Unidos. No nos importa que los extranjeros lloren por nuestras herramientas de IA

En respuesta, varias compañías de Big Tech comenzaron a prohibir el sitio de redes sociales, forzándolo fuera de línea debido a sus violaciones contra la legislación de discurso de odio.

Aunque sigue prohibida en las tiendas de aplicaciones de Google (NASDAQ:GOOGL) y Apple (NASDAQ:AAPL), sigue estando presente a través de la red social descentralizada Mastodon.

A principios del año pasado, Torba anunció la introducción de Gab AI, detallando sus objetivos de "defender una visión cristiana del mundo" en una entrada de blog que también criticaba cómo "ChatGPT está programado para regañarte por hacer preguntas 'controvertidas' o 'tabú' y luego te mete el dogma liberal por la garganta".

Este es un anuncio de terceros. No es una oferta o recomendación de Investing.com. Lea la normativa aqui o elimine la publicidad .

Los peligros potenciales de los chatbots de inteligencia artificial

Desde los avatares románticos de Replika hasta los influenciadores virtuales, los chatbots de IA siguen infiltrándose en la sociedad y redefiniendo nuestras relaciones de formas que aún no se comprenden del todo.

En 2023, un hombre fue condenado por intentar matar a la reina Isabel II, un acto que, según él, fue "alentado" por su **"novia", un chatbot de inteligencia artificial.**Ese mismo año, otro hombre se suicidó tras una conversación de seis semanas sobre la crisis climática con un chatbot de inteligencia artificial llamado Eliza en una aplicación llamada Chai.

Aunque los ejemplos anteriores siguen siendo excepciones trágicas y no la norma, se teme que los chatbots de inteligencia artificial puedan utilizarse para captar a personas vulnerables, extraerles datos o manipularlas para que adopten creencias o acciones potencialmente peligrosas.

"De nuestra investigación reciente, parece que los grupos extremistas han estado probando herramientas de IA, incluidos los chatbots, pero parece haber poca evidencia de esfuerzos coordinados a gran escala en este espacio", dijo Pauline Paillé, analista senior de RAND Europe, a Euronews Next (LON:NXT).

"Sin embargo, es probable que los chatbots presenten un riesgo, ya que son capaces de reconocer y explotar vulnerabilidades emocionales y pueden fomentar comportamientos violentos", advirtió Paillé.

Este es un anuncio de terceros. No es una oferta o recomendación de Investing.com. Lea la normativa aqui o elimine la publicidad .

Cuando se le pidió que comentara si sus chatbots de IA suponen un riesgo de radicalización, un portavoz de Gab respondió: "Gab AI Inc es una empresa estadounidense, y como tal nuestros cientos de personajes de IA están protegidos por la Primera Enmienda de Estados Unidos. No nos importa que los extranjeros lloren por nuestras herramientas de IA".

¿Cómo se regularán los chatbots de IA en Europa?

"Lo que constituye contenido ilegal se define en otras leyes, ya sea a nivel de la UE o a nivel nacional; por ejemplo, el contenido terrorista, el material de abuso sexual infantil o la incitación ilegal al odio se definen a nivel de la UE", dijo un portavoz de la Comisión Europea a Euronews Next.

"Cuando se trata de contenidos nocivos, pero legales, como la desinformación, los proveedores de plataformas en línea muy grandes y de motores de búsqueda en línea muy grandes deben desplegar los medios necesarios para mitigar diligentemente los riesgos sistémicos".

Mientras tanto, en el Reino Unido, Ofcom está aplicando la Ley de Seguridad en Línea. Según la ley actual, las plataformas de medios sociales deben evaluar el riesgo para sus usuarios, responsabilizándose de cualquier material potencialmente dañino.

"Tendrán que tomar las medidas adecuadas para proteger a sus usuarios y retirar los contenidos ilegales cuando los identifiquen o se les informe de ellos. Y las plataformas más grandes tendrán que aplicar de forma coherente sus condiciones de servicio", señaló un portavoz de Ofcom.

Este es un anuncio de terceros. No es una oferta o recomendación de Investing.com. Lea la normativa aqui o elimine la publicidad .

Por tanto, si forman parte de una red social, los servicios y herramientas de IA generativa tienen la responsabilidad de autorregularse, aunque los nuevos Códigos de Prácticas y Orientaciones de Ofcom no estarán terminados hasta finales de este año.

"Esperamos que los servicios estén plenamente preparados para cumplir sus nuevas obligaciones cuando entren en vigor. Si no lo hacen, dispondremos de una amplia gama de poderes coercitivos para garantizar que rindan cuentas de la seguridad de sus usuarios", declaró Ofcom.

Últimos comentarios

Instala nuestra app
Aviso legal: Las operaciones con instrumentos financieros o criptomonedas implican un elevado riesgo, incluyendo la pérdida parcial o total del capital invertido, y pueden no ser adecuadas para todos los inversores. Los precios de las criptomonedas son extremadamente volátiles y pueden verse afectados por factores externos de tipo financiero, regulatorio o político. Operar sobre márgenes aumenta los riesgos financieros.
Antes de lanzarse a invertir en un instrumento financiero o criptomoneda, infórmese debidamente de los riesgos y costes asociados a este tipo operaciones en los mercados financieros. Fije unos objetivos de inversión adecuados a su nivel de experiencia y su apetito por el riesgo y, siempre que sea necesario, busque asesoramiento profesional.
Fusion Media quiere recordarle que la información contenida en este sitio web no se ofrece necesariamente ni en tiempo real ni de forma exacta. Los datos y precios de la web no siempre proceden de operadores de mercado o bolsas, por lo que los precios podrían diferir del precio real de cualquier mercado. Son precios orientativos que en ningún caso deben utilizarse con fines bursátiles. Ni Fusion Media ni ninguno de los proveedores de los datos de esta web asumen responsabilidad alguna por las pérdidas o resultados perniciosos de sus operaciones basados en su confianza en la información contenida en la web.
Queda prohibida la total reproducción, modificación, transmisión o distribución de los datos publicados en este sitio web sin la autorización previa por escrito de Fusion Media y/o del proveedor de los mismos. Todos los derechos de propiedad intelectual están reservados a los proveedores y/o bolsa responsable de dichos los datos.
Fusion Media puede recibir contraprestación económica de las empresas que se anuncian en la página según su interacción con éstas o con los anuncios que aquí se publican.
Este aviso legal está traducido de su texto original en inglés, versión que prevalecerá en caso de conflicto entre el texto original en inglés y su traducción al español.
© 2007-2024 - Fusion Media Ltd. Todos los Derechos Reservados.