Acuerdos
IA
Unión Europea
Estados Unidos

Europa y Estados Unidos acuerdan trazar un rumbo común en la regulación de la IA

Los dos bloques han acordado colaborar en la elaboración de normas interoperables e internacionales para una inteligencia artificial más segura.

Acuerdo
Scott Graham (Unsplash)

La Unión Europea (UE) y Estados Unidos (EE.UU) han acordado aumentar la cooperación en el desarrollo de tecnologías basadas en la inteligencia artificial (IA), haciendo especial hincapié en la seguridad y la gobernanza.

El anuncio se produjo tras el punto y final de la reunión del Consejo de Comercio y Tecnología UE-EE.UU celebrada el viernes en Lovaina (Bélgica), y siguió al pacto similar alcanzado esta semana entre EE.UU y el Reino Unido sobre seguridad de la IA.

En este sentido cabe destacar que la UE y EE.UU aspiran a fomentar el intercambio de información científica entre expertos en IA de ambos lados del Atlántico en ámbitos como el desarrollo de puntos de referencia y la evaluación de riesgos potenciales. El objetivo pasa por desarrollar tecnologías de IA "seguras y fiables".

 

Desarrollar entornos normativos compatibles

Las dos partes acordaron minimizar las divergencias en sus respectivos sistemas de gobernanza y regulación de la IA. En una declaración, la UE y EE.UU esbozaron las áreas de colaboración existentes en materia de aplicaciones de la IA: "Los grupos de trabajo formados conjuntamente por las agencias científicas de Estados Unidos y los departamentos y agencias de la Comisión Europea han logrado avances sustanciales al definir hitos críticos para la obtención de resultados en los ámbitos del clima extremo, la energía, la respuesta a emergencias y la reconstrucción".

Trabajar bien juntos requiere un acuerdo sobre el significado de los términos, y con ese fin las dos partes publicaron una edición actualizada de su Terminología y Taxonomía UE-EE.UU para la inteligencia artificial que ya puede descargarse.

La Unión Europea pretende regular el desarrollo de la inteligencia artificial en la región con una Ley de IA recientemente aprobada. A pesar de las peticiones de regulación de la IA en EE.UU por parte de pesos pesados del sector como Google, Microsoft y OpenAI, las divisiones partidistas en el Congreso hacen improbable que se llegue a un acuerdo antes de las nuevas elecciones legislativas de noviembre.

Sin embargo, el Gobierno estadounidense ha tomado medidas para poner orden en su propia casa, desarrollando una estrategia sobre el uso de la IA para las agencias federales.

 

Salvaguardas para la IA

Los expertos consultados por CIO.com acogieron con satisfacción el acuerdo entre la UE y EE.UU como un avance positivo en el campo de las tecnologías de IA, que evoluciona a gran velocidad.

Gaurav Pal, consejero delegado y fundador de stackArmor, una empresa de consultoría de seguridad informática y miembro del Consorcio del Instituto de Seguridad de la Inteligencia Artificial de EE.UU, declaró a CIO.com: "Es un paso importante para ayudar a desarrollar un conjunto común de salvaguardas y marcos de seguridad de la inteligencia artificial entre la UE y EE.UU". Pal prosiguió: "Es de esperar que esto evite la creación de silos y fricciones en la realización de negocios entre EE.UU y la UE para las empresas estadounidenses de IA".

Los líderes empresariales deben mantenerse al tanto del marco normativo que está surgiendo rápidamente en torno a la IA, ya que es probable que afecte a las operaciones comerciales en múltiples sectores, tal vez de manera similar a cómo el GDPR ha afectado a las empresas estadounidenses que realizan negocios en la UE.

El deseo de evitar que los regímenes reguladores de la IA choquen a ambos lados del Atlántico es, por tanto, bienvenido, según Pal. "El acuerdo de cooperación es muy importante, ya que pretende desarrollar un conjunto común de normas y marcos reguladores, reduciendo así el coste y la complejidad del cumplimiento", explicó.

Los investigadores acogieron con cautela el desarrollo de la coordinación entre EE.UU y la UE en materia de IA, aunque esperan más detalles sobre los aspectos concretos.

"La regulación de la IA requiere esfuerzos conjuntos de la comunidad internacional y los gobiernos para acordar un conjunto de procesos y organismos reguladores", aseguró a CIO.com Angelo Cangelosi, catedrático de aprendizaje automático y robótica de la Universidad de Manchester (Inglaterra).

"El último acuerdo entre el Reino Unido y EE.UU es un buen paso en esta dirección, aunque los detalles sobre los pasos prácticos no están del todo claros en este momento, pero esperamos que esto continúe a un nivel internacional más amplio, por ejemplo con la integración con las agencias de IA de la UE, así como en el marco más amplio de la ONU", añadió.

 

Riesgos del mal uso de la IA

El Dr. Kjell Carlsson, jefe de estrategia de IA en Domino Data Lab, argumentó que centrarse en la regulación de las ofertas comerciales de IA pierde de vista la amenaza real y creciente: el uso indebido de la inteligencia artificial por parte de los delincuentes para desarrollar falsificaciones profundas y estafas de phishing más convincentes.

"Desafortunadamente, pocas de las regulaciones de IA propuestas, como la Ley de IA de la UE, están diseñadas para abordar eficazmente estas amenazas, ya que en su mayoría se centran en ofertas comerciales de IA que los delincuentes no utilizan", dijo Carlsson. "Como tal, muchos de estos esfuerzos regulatorios dañarán la innovación y aumentarán los costes, mientras que hacen poco para mejorar la seguridad real".

"En esta etapa del desarrollo de la IA, la inversión en pruebas y seguridad es mucho más eficaz que la regulación", argumentó Carlsson.

La investigación sobre cómo probar eficazmente los modelos de IA, mitigar sus riesgos y garantizar su seguridad, llevada a cabo a través de los nuevos Institutos de Seguridad de la IA, representa una "excelente inversión pública" para garantizar la seguridad al tiempo que se fomenta la competitividad de los desarrolladores de IA, afirmó Carlsson.

 

Retos jurídicos

Muchas empresas convencionales están utilizando la IA para analizar, transformar e incluso producir datos, una evolución que ya está planteando retos jurídicos en múltiples frentes.

Ben Travers, socio del bufete jurídico Knights y especializado en cuestiones de IA, propiedad intelectual e informática, explicó: "Las empresas deben tener una política de IA que encaje con otras políticas pertinentes, como las relativas a la protección de datos, la propiedad intelectual y la contratación de TI. La política debe establecer las normas sobre qué empleados pueden (o no pueden) trabajar con IA".

Algunos casos recientes han aumentado la concienciación sobre los riesgos que corren las empresas cuando los empleados cargan en herramientas de IA información protegida o confidencial, mientras que la tecnología también plantea problemas en ámbitos como la infracción de los derechos de autor.

"Las empresas deben decidir cómo van a abordar estos riesgos, reflejarlos en las políticas pertinentes y comunicarlas a sus equipos", concluye Travers.



Contenido Patrocinado

Forma parte de nuestra comunidad

 

¿Te interesan nuestras conferencias?

 

 
Cobertura de nuestros encuentros
 
 
 
 
Lee aquí nuestra revista de canal

DealerWorld Digital