Consiga un 40% de descuento
👀 👁 🧿 Todas las miradas puestas en Biogen, que sube un +4,56% tras publicar resultados.
Nuestra IA lo eligió en marzo de 2024. ¿Qué valores serán los siguientes en subir?
Buscar valores ahora

EEUU dice que principales empresas de IA se unen a consorcio de seguridad para abordar riesgos

Publicado 08.02.2024, 12:41
Actualizado 08.02.2024, 12:49
© Reuters. FOTO DE ARCHIVO: Las letras AI (Inteligencia Artificial) se colocan en la placa madre de un computador en esta ilustración tomada el 23 de junio de 2023. REUTERS/Dado Ruvic/Illustration/File Photo

Por David Shepardson

WASHINGTON, 8 feb (Reuters) - El Gobierno del presidente de Estados Unidos, Joe Biden, anunció el jueves que las principales empresas de inteligencia artificial se encuentran entre las más de 200 entidades que se unen a un nuevo consorcio en el país para apoyar el desarrollo y despliegue seguros de la IA generativa.

La Secretaria de Comercio, Gina Raimondo, anunció el Consorcio del Instituto de Seguridad de la IA de Estados Unidos (AISIC), que incluye a OpenAI, Google de Alphabet (NASDAQ:GOOGL), Anthropic y Microsoft (NASDAQ:MSFT), junto con Facebook (NASDAQ:META) de Meta Platforms, Apple (NASDAQ:AAPL), Amazon.com (NASDAQ:AMZN), Nvidia (NASDAQ:NVDA), Palantir, Intel (NASDAQ:INTC), JPMorgan Chase (NYSE:JPM) y Bank of America (NYSE:BAC).

"El gobierno de Estados Unidos tiene un importante papel que desempeñar en el establecimiento de las normas y el desarrollo de las herramientas que necesitamos para mitigar los riesgos y aprovechar el inmenso potencial de la inteligencia artificial", dijo Raimondo en un comunicado.

El consorcio, en el que también participan BP (LON:BP), Cisco Systems (NASDAQ:CSCO), IBM (NYSE:IBM), Hewlett Packard (NYSE:HPQ), Northop Grumman, Mastercard (NYSE:MA), Qualcomm (NASDAQ:QCOM), Visa (NYSE:V) e importantes instituciones académicas y agencias gubernamentales, se albergará bajo el nombre de U.S. AI Safety Institute (USAISI).

El grupo se encargará de trabajar en las acciones prioritarias descritas en la orden ejecutiva sobre IA del presidente Biden de octubre, "incluido el desarrollo de directrices para las simulaciones de ataques, las evaluaciones de capacidad, la gestión de riesgos, la seguridad y la protección, y la marca de agua de los contenidos sintéticos".

Este es un anuncio de terceros. No es una oferta o recomendación de Investing.com. Lea la normativa aqui o elimine la publicidad .

Las principales empresas de IA se comprometieron el año pasado a poner marcas de agua a los contenidos generados por IA para hacer más segura la tecnología. La simulación de ataques ha sido utilizada durante años en el sector de la ciberseguridad para identificar nuevos riesgos, bajo la denominación "equipo rojo", una referencia a la designación del enemigo en los simulacros estadounidenses durante la Guerra Fría.

La orden de Biden ordenaba a los organismos que establecieran normas para esas pruebas y abordaran los riesgos químicos, biológicos, radiológicos, nucleares y de ciberseguridad relacionados.

En diciembre, el Departamento de Comercio declaró que estaba dando el primer paso hacia la redacción de normas y orientaciones clave para el despliegue y las pruebas seguras de la IA.

El consorcio representa el mayor conjunto de equipos de pruebas y evaluación y se centrará en sentar las bases de una "nueva ciencia de la medición en materia de seguridad de la IA", según el Departamento de Comercio.

La IA generativa -que puede crear textos, fotos y videos en respuesta a instrucciones abiertas- ha suscitado tanto entusiasmo como temores de que pueda dejar obsoletos algunos puestos de trabajo, alterar las elecciones y superar potencialmente a los humanos con efectos catastróficos.

Mientras el gobierno de Biden busca salvaguardias, los esfuerzos del Congreso por aprobar leyes sobre IA se han estancado a pesar de las numerosas propuestas de foros de alto nivel y legislativas.

(Reporte de David Shepardson; Editado en Español por Ricardo Figueroa)

Últimos comentarios

Instala nuestra app
Aviso legal: Las operaciones con instrumentos financieros o criptomonedas implican un elevado riesgo, incluyendo la pérdida parcial o total del capital invertido, y pueden no ser adecuadas para todos los inversores. Los precios de las criptomonedas son extremadamente volátiles y pueden verse afectados por factores externos de tipo financiero, regulatorio o político. Operar sobre márgenes aumenta los riesgos financieros.
Antes de lanzarse a invertir en un instrumento financiero o criptomoneda, infórmese debidamente de los riesgos y costes asociados a este tipo operaciones en los mercados financieros. Fije unos objetivos de inversión adecuados a su nivel de experiencia y su apetito por el riesgo y, siempre que sea necesario, busque asesoramiento profesional.
Fusion Media quiere recordarle que la información contenida en este sitio web no se ofrece necesariamente ni en tiempo real ni de forma exacta. Los datos y precios de la web no siempre proceden de operadores de mercado o bolsas, por lo que los precios podrían diferir del precio real de cualquier mercado. Son precios orientativos que en ningún caso deben utilizarse con fines bursátiles. Ni Fusion Media ni ninguno de los proveedores de los datos de esta web asumen responsabilidad alguna por las pérdidas o resultados perniciosos de sus operaciones basados en su confianza en la información contenida en la web.
Queda prohibida la total reproducción, modificación, transmisión o distribución de los datos publicados en este sitio web sin la autorización previa por escrito de Fusion Media y/o del proveedor de los mismos. Todos los derechos de propiedad intelectual están reservados a los proveedores y/o bolsa responsable de dichos los datos.
Fusion Media puede recibir contraprestación económica de las empresas que se anuncian en la página según su interacción con éstas o con los anuncios que aquí se publican.
Este aviso legal está traducido de su texto original en inglés, versión que prevalecerá en caso de conflicto entre el texto original en inglés y su traducción al español.
© 2007-2024 - Fusion Media Ltd. Todos los Derechos Reservados.