Los responsables políticos europeos se han apresurado a elaborar normas y advertencias a las empresas tecnológicas desde el lanzamiento del ChatGPT y la semana pasada ha sido monumental para establecer las normas de la UE sobre inteligencia artificial (IA).
El miércoles, el Parlamento Europeo aprobó la Ley de Inteligencia Artificial, que adopta un enfoque basado en el riesgo para garantizar que las empresas lanzan productos que cumplen la ley antes de ponerlos a disposición del público.
Un día después, la Comisión Europea pidió a Bing, Facebook (NASDAQ:META), Google (NASDAQ:GOOGL) Search, Instagram, Snapchat, TikTok, YouTube y X, en virtud de otra legislación, que detallaran cómo están frenando los riesgos de la IA generativa.
Aunque a la UE le preocupan sobre todo los efectos de la IA (cuando los modelos cometen errores e inventan cosas), la difusión viral de deepfakes y la manipulación automatizada de la IA que podría inducir a error a los votantes en las elecciones, la comunidad tecnológica tiene sus propias quejas con la legislación, mientras que algunos investigadores afirman que no va lo suficientemente lejos.
Monopolios tecnológicos
varios problemasHay "importantes lagunas jurídicas para las autoridades públicas" y "una regulación relativamente débil de los modelos de base más grandes que plantean los mayores daños", dijo a 'Euronews Next (LON:NXT)'.
Los modelos fundacionales son modelos de aprendizaje automático que se entrenan con datos y pueden utilizarse para realizar una serie de tareas, como escribir un poema, por ejemplo. ChatGPT es un modelo fundacional. Sin embargo, la mayor preocupación de von Thun son los monopolios tecnológicos.
"La Ley de Inteligencia Artificial es incapaz de abordar la principal amenaza que plantea actualmente: su papel en el aumento y afianzamiento del poder extremo que unas pocas empresas tecnológicas dominantes ya tienen en nuestras vidas personales, nuestras economías y nuestras democracias", afirmó.
Asimismo, dijo que la Comisión Europea debería ser cautelosa con los abusos monopolísticos en el ecosistema de la IA.
"La UE debería entender que la escala de los riesgos que plantea la IA está inextricablemente ligada a la escala y el poder de las empresas dominantes que desarrollan y despliegan estas tecnologías. No se puede hacer frente con éxito a lo primero hasta que no se aborde lo segundo", afirmó von Thun.
La amenaza de los monopolios de IA saltó a la palestra el mes pasado tras conocerse que la empresa francesa Mistral AI se asociaba con Microsoft (NASDAQ:MSFT). Para algunos miembros de la UE fue una sorpresa, ya que Francia había presionado para que se hicieran concesiones a la Ley de Inteligencia Artificial en favor de empresas de código abierto como Mistral.
Arthur Mensch, cofundador y CEO de Mistral AI. Toby Melville/Pool Photo via AP, File
Momento histórico
varias start-ups celebraron la claridad que aporta el nuevo reglamentoAunque la Ley impone restricciones y normas adicionales a los desarrolladores de sistemas de IA y modelos de base de alto riesgo, considerados "riesgos sistémicos", confiamos en que estos controles y equilibrios puedan aplicarse eficazmente", aseguró a 'Euronews Next'.
"Este momento histórico allana el camino hacia un futuro en el que la IA se utilice de forma responsable, fomentando la confianza y garantizando la seguridad de todos", añadió.
La legislación funciona distinguiendo los riesgos que plantean los modelos fundacionales, que se basan en la potencia de cálculo que los entrena. Los productos de IA que superan el umbral de potencia de cálculo se regularán de forma más estricta. La clasificación se considera un punto de partida y, al igual que otras definiciones, puede ser revisada por la Comisión.
Bien público
clasificarse como de alto riesgo"La Comisión, que tiene la capacidad de modificar los casos de uso de los sistemas de alto riesgo, podría mencionar explícitamente los sistemas de IA empleados en el espacio de la información como de alto riesgo teniendo en cuenta su impacto en los derechos fundamentales", dijo a 'Euronews Next'.
"Las empresas privadas no pueden ser las únicas que dirijan nuestro futuro común. La IA debe ser un bien público", añadió. Pero otros sostienen que las empresas también tienen que dar su opinión y poder colaborar con la UE.
"Es vital que la UE aproveche el dinamismo del sector privado, que será la fuerza motriz del futuro de la IA. Hacerlo bien será importante para que Europa sea más competitiva y atractiva para los inversores", explicó Julie Linn Teigland, socia directora de EY para Europa, Oriente Medio, India y África (EMEIA).
Sin embargo, señaló que las empresas de la UE y de fuera de ella deben ser proactivas y prepararse para la entrada en vigor de la ley, lo que significa "tomar medidas para asegurarse de que disponen de un inventario actualizado de los sistemas de IA que están desarrollando o desplegando, y determinar su posición en la cadena de valor de la IA para entender sus responsabilidades legales".
Sabor agridulce
mucho más trabajo"Aunque la Ley de IA responde a un reto importante en términos de transparencia y ética, no deja de crear obligaciones sustanciales para todas las empresas que utilicen o desarrollen inteligencia artificial, a pesar de algunos ajustes previstos para las startups y las pymes, en particular a través de sandboxes regulatorios", prosiguió.
"Tememos que el texto simplemente creará barreras regulatorias adicionales que beneficiarán a la competencia estadounidense y china, y reducirá nuestras oportunidades para que surjan campeones europeos de IA", abundó.
El logotipo de OpenAI se muestra en un teléfono celular con una imagen en un monitor generado por el modelo de texto a imagen Dall-E de ChatGPT. AP Photo/Michael Dwyer, File
Aplicación efectiva
su aplicación es el siguiente retoEsta legislación complementaria incluye la Directiva de Responsabilidad de la IA, destinada a ayudar en las reclamaciones de responsabilidad por daños causados por productos y servicios habilitados para la IA, y la Oficina de IA de la UE, cuyo objetivo es racionalizar la aplicación de las normas.
"La clave para que la ley valga lo que cuesta es que la Oficina de Inteligencia Artificial disponga de recursos para realizar las tareas que se le han encomendado y que los códigos de buenas prácticas para la inteligencia artificial de uso general estén bien redactados y cuenten con la participación de la sociedad civil".