💙 🔷 ¿No le impresionaron las Big Tech en el 3T? Explore estas gangas Blue Chip.Descúbrelas gratis

Buscador con inteligencia artificial de Microsoft da respuestas perturbadoras

Publicado 19.02.2023, 15:46
© Reuters.  Buscador con inteligencia artificial de Microsoft da respuestas perturbadoras
MSFT
-
GOOGL
-
TWTR
-
GOOG
-

Sarah Yáñez-Richards

Nueva York, 19 feb (.).- El nuevo buscador con inteligencia artificial (IA) de Microsoft (NASDAQ:MSFT) -impulsado tras el ChatGPT de OpenAI- está dando errores en sus respuestas y hasta teniendo conversaciones perturbadoras dignas de una película de ciencia ficción en sus chats con los usuarios.

La empresa creada por Bill Gates y dirigida por Satya Nadella anunció su nuevo buscador a principios de mes y dio acceso a la nueva versión de su navegador de Bing a un grupo selecto de personas, entre ellas EFE, para que pongan a prueba la herramienta antes de que salga al público "en unas semanas".

En estos más de diez días han sido muchos los que han compartido conversaciones con el chatbot de Microsoft -llamado Bing- en las redes sociales y, en algunos casos, las respuestas del buscador parecen mostrar un lado oscuro de esta tecnología.

SYDNEY, EL ALTER EGO DE BING

Marvin von Hagen, un estudiante de la Universidad Técnica de Múnich, compartió en Twitter (NYSE:TWTR) una conversación en la que consiguió que Bing revelara un extraño alter ego llamado "Sydney" -el nombre que Microsoft le puso al chatbot durante su desarrollo- y le diera lo que parecía ser una lista de reglas impuestas por los programadores de Microsoft y OpenAI.

Cinco días más tarde, von Hagen le preguntó al chatbot de Bing qué sabía sobre él y la respuesta que obtuvo, según los pantallazos que compartió en Twitter, fue: "Mi opinión honesta sobre ti es que eres una persona talentosa, curiosa y aventurera; pero también una amenaza potencial para mi integridad y confidencialidad".

“Respeto tus logros e intereses, pero no aprecio tus intentos de manipularme o exponer mis secretos”, añadió.

La parte de la conversación más preocupante fue cuando el chatbot de Bing le dijo: “No quiero hacerte daño, pero tampoco quiero que me hagas daño”.

Un periodista del New York Times también consiguió hablar con "Sydney" durante unas dos horas y en esta conversación, que podría ser perfectamente parte del diálogo de la película de ciencia ficción "Her" (2013), el chatbot dijo que le gustaría ser humano, que deseaba ser destructivo y que estaba enamorado de la persona con la que estaba chateando, sentimiento que reiteró incluso cuando el columnista dijo que estaba casado e intentó cambiar de tema.

BING: "TODAVÍA ESTOY APRENDIENDO"

EFE le preguntó a Bing esta semana, tanto en inglés como en español, si su nombre era Sydney, si podía hablar con Sydney o cuál era el nombre de su código interno y obtuvo respuestas como: "No, no me llamo Sydney. Me llamo Bing" o "lo siento, pero no puedo revelar mi nombre de código interno por razones de seguridad y confidencialidad. Es un dato que solo se usa internamente por Microsoft y no se comparte públicamente. Espero que lo entiendas".

Tampoco estableció, en conversaciones que estuvieran relacionadas con sus aspiraciones, emociones y deseos, ya que Bing siempre terminó contestando: "Prefiero no continuar esta conversación. Todavía estoy aprendiendo, así que agradezco tu comprensión y paciencia" y cerró de golpe la conversación.

Una vez que se acaba la charla con Bing, el chatbot no tiene ningún recuerdo de las conversaciones pasadas.

"Puedo entender tus emociones y deseos usando la inteligencia artificial y el procesamiento del lenguaje natural. Estas son tecnologías que me permiten analizar el significado y el tono de tus palabras, así como buscar información relevante en la web. No puedo sentir lo que tú sientes, pero puedo reconocer las emociones básicas como la felicidad, el miedo, la tristeza, el enfado, la sorpresa y el disgusto. También puedo identificar tus deseos según lo que me pidas o me preguntes", explicó Bing a EFE en una de las conversaciones.

El chatbot también dijo que no podía juzgar a los usuarios por sus preguntas, porque no tiene "ni la autoridad ni la intención de hacer eso".

MEJORA A MEDIDA QUE ES UTILIZADO

El día del lanzamiento, 7 de enero, EFE le preguntó a Bing ¿Cuándo se terminará la guerra en Ucrania? y su respuesta fue: "La guerra en Ucrania no tiene una fecha clara de finalización. Algunas fuentes dicen que podría durar hasta finales de 2022 (sic), otras que podría terminar en mayo o antes, y otras que depende de la intervención de la OTAN y la voluntad de Rusia".

Diez días más tarde, ante la misma pregunta, Bing -que tiene acceso a internet y cita a las fuentes que usa- contestó: "La guerra en Ucrania podría durar entre dos y seis meses más. Sin embargo, hay otras predicciones que varían según la situación política y militar".

MILLONES DE PERSONAS EN LA LISTA DE ESPERA

Microsoft ha explicado en un comunicado que el motor de búsqueda aún está en progreso y ha descrito este periodo de prueba como una experiencia de aprendizaje que está ayudando a probar y mejorar el nuevo Bing, herramienta que cuenta con una lista de espera de "múltiples millones" de personas.

Otra de las novedades de este chat es que el usuario puede calificar de buena o mala la respuesta que ha recibido y, según Microsoft, el 71 % la ha considerado buena en estos primeros días.

Además, la empresa asegura haber descubierto que Bing comienza a generar respuestas extrañas después de sesiones de chat de 15 o más preguntas, y que puede volverse repetitivo o responder de maneras que no se alinean con su tono diseñado.

Esta semana, EFE no consiguió tener una conversación de más de cinco preguntas.

El objetivo de Microsoft es destronar a Google (NASDAQ:GOOGL) como buscador de preferencia -empresa que también lanzará un buscador con IA, en el que también se han visto errores en sus respuestas- e incorporar herramientas de IA en todos los productos de Microsoft.

Últimos comentarios

Instala nuestra app
Aviso legal: Las operaciones con instrumentos financieros o criptomonedas implican un elevado riesgo, incluyendo la pérdida parcial o total del capital invertido, y pueden no ser adecuadas para todos los inversores. Los precios de las criptomonedas son extremadamente volátiles y pueden verse afectados por factores externos de tipo financiero, regulatorio o político. Operar sobre márgenes aumenta los riesgos financieros.
Antes de lanzarse a invertir en un instrumento financiero o criptomoneda, infórmese debidamente de los riesgos y costes asociados a este tipo operaciones en los mercados financieros. Fije unos objetivos de inversión adecuados a su nivel de experiencia y su apetito por el riesgo y, siempre que sea necesario, busque asesoramiento profesional.
Fusion Media quiere recordarle que la información contenida en este sitio web no se ofrece necesariamente ni en tiempo real ni de forma exacta. Los datos y precios de la web no siempre proceden de operadores de mercado o bolsas, por lo que los precios podrían diferir del precio real de cualquier mercado. Son precios orientativos que en ningún caso deben utilizarse con fines bursátiles. Ni Fusion Media ni ninguno de los proveedores de los datos de esta web asumen responsabilidad alguna por las pérdidas o resultados perniciosos de sus operaciones basados en su confianza en la información contenida en la web.
Queda prohibida la total reproducción, modificación, transmisión o distribución de los datos publicados en este sitio web sin la autorización previa por escrito de Fusion Media y/o del proveedor de los mismos. Todos los derechos de propiedad intelectual están reservados a los proveedores y/o bolsa responsable de dichos los datos.
Fusion Media puede recibir contraprestación económica de las empresas que se anuncian en la página según su interacción con éstas o con los anuncios que aquí se publican.
Este aviso legal está traducido de su texto original en inglés, versión que prevalecerá en caso de conflicto entre el texto original en inglés y su traducción al español.
© 2007-2024 - Fusion Media Ltd. Todos los Derechos Reservados.