Por qué la UE tendrá dificultades para legislar sobre la IA

Por qué la UE tendrá dificultades para legislar sobre la IA

las tecnologías europeas están considerando prohibir temporalmente las tecnologías de reconocimiento facial en los espacios públicos hasta que se comprendan mejor los riesgos potenciales. La IA se convertirá en una herramienta estándar para ayudar a guiar los automóviles, mejorar la atención médica o automatizar la toma de decisiones dentro de las autoridades públicas. Si bien las tecnologías inteligentes están impulsando la innovación y el crecimiento, su proliferación mundial ya está causando graves daños.

Las empresas globales, los gobiernos y las organizaciones internacionales han reaccionado a estas tendencias preocupantes mediante la creación de consejos de ética de IA, estatutos, comités, directrices, etc., todo para resolver los problemas que presenta esta tecnología, y Europa no es una excepción. La Comisión Europea ha creado un grupo de expertos en IA de alto nivel para elaborar orientaciones éticas. Desafortunadamente, un debate ético por sí solo no ayudará a remediar la destrucción causada por la rápida propagación de la IA en diversas facetas de la vida. Pero muchas tecnologías de IA, además del reconocimiento facial, merecen más preocupación, especialmente de los responsables políticos europeos.

Cada vez más expertos han examinado la amenaza que las tecnologías “Deep Fake” pueden representar para la democracia, permitiendo la desinformación artificial; considere, por ejemplo, la tarjeta de crédito de Apple que otorga puntuaciones de crédito mucho más altas a los maridos en comparación con sus esposas, incluso si comparten activos. El último ejemplo de este defecto es Microsoft, uno de los mayores productores de servicios de IA del mundo. Microsoft, que a menudo ha tratado de separarse de sus homólogos de Big Tech como líder moral, recientemente asumió su inversión sustancial en software de reconocimiento facial que se utiliza con fines de vigilancia. “AnyVision” está supuestamente siendo utilizada por Israel para localizar palestinos en Cisjordania.

Si bien invertir en esta tecnología va directamente en contra de los principios éticos establecidos de Microsoft sobre el reconocimiento facial, no hay retorno. Esto demuestra que la IA que rige la IA, especialmente las tecnologías exportadas o las que se despliegan a través de las fronteras, a través de principios éticos no funciona. Sin embargo, esto viene con peligros específicos, que se muestran en numerosos informes de grupos de defensa y perros guardianes diciendo que las tecnologías son imperfectas y proporcionan más salidas falsas desproporcionadamente para las mujeres y más tonos de piel Oscuro.

Las directrices éticas, ni las que provienen de Big Tech ni las de las partes interesadas internacionales, no son suficientes para proteger a los ciudadanos de las prácticas invasivas, sesgadas o dañinas de la policía o las fuerzas de seguridad. Aunque estos problemas han rodeado las tecnologías de IA en años anteriores, esto aún no ha dado lugar a una regulación exitosa para hacer que la IA sea “buena” o “ética”, términos que significan bien pero que son increíblemente difíciles de definir, especialmente a nivel Internacional. Por eso, aunque los actores del sector privado, el gobierno, la academia y la sociedad civil han estado exigiendo orientación ética sobre el desarrollo de la IA, estas discusiones siguen siendo vagas, abiertas a la interpretación, no universales y, lo que es más importante, Inaplicable.

Para poner fin al paradigma más rápido del desarrollo de ai y para remediar parte del daño social ya causado, necesitamos establecer reglas para el uso de la IA que sean confiables y factibles. Y los argumentos éticos no son lo suficientemente fuertes para hacerlo; principios no resuelven estos daños de una manera concreta.

El caso de Microsoft es sólo una gota en el bucket. Numerosos casos seguirán surgiendo o siendo descubiertos en los próximos años en todos los rincones del mundo, dada su prensa funcional y libre, por supuesto. Este problema es especialmente prominente en el software de reconocimiento facial, como lo refleja el debate europeo. Desarrollados en Big Tech, los productos de reconocimiento facial han sido adquiridos por agencias gubernamentales como agentes de aduanas y migración, oficiales de policía, fuerzas de seguridad, personal militar, entre otros. Esto es cierto para muchas regiones del mundo: como en América, el Reino Unido, así como en varios estados de Africa, Asia y más.

Prometiendo métodos más eficaces y precisos para mantener la paz, los organismos encargados de hacer cumplir la ley han adoptado el uso de la IA para cargar sus capacidades.

El mes pasado, un libro blanco mostró que la Unión Europea está considerando prohibir temporalmente las tecnologías de reconocimiento facial en los espacios públicos hasta que se entiendan mejor los riesgos potenciales. ¿Rescate internacional de derechos humanos? Mientras no tengamos reglas que funcionen, al menos debemos utilizar directrices que ya existen para proteger a las sociedades vulnerables de la mejor manera posible. Aquí es donde el marco jurídico internacional para los derechos humanos puede ser decisivo.

Debemos discutir estos daños indebidos como violaciones de los derechos humanos, utilizando marcos jurídicos internacionales y lenguaje que tiene un consenso de largo alcance entre las diferentes naciones y los contextos culturales, se basa en una retórica coherente, y es, en teoría, en teoría. Ejecutable. El desarrollo de la IA debe promover y respetar los derechos humanos de las personas en todas partes, no seguir perjudicando a la sociedad a un ritmo y escala cada vez mayores.

Las normas básicas deben estar en las tecnologías de IA, que cumplen con los derechos humanos. Documentos como la Declaración Universal de Derechos Humanos y los Principios DE LA GUIDing de las Naciones Unidas que guían la conducta del sector privado en formas compatibles con los derechos humanos deben sentar el listón a nivel internacional. Aquí es donde la UE puede dar ejemplo. Al centrarse en estas convenciones y principios existentes, la inversión de Microsoft en AnyVision, por ejemplo, se vería no sólo como una violación directa de sus principios internos, sino también como una violación de los principios rectores de las naciones Unidos, obligando a la comunidad internacional a examinar las actividades comerciales de la empresa de manera más profunda y sistemática, lo ideal que conduce a la reparación. Más rápido no es mejor.

El rápido desarrollo y difusión de los sistemas de IA ha causado daños sin precedentes e irreversibles a las personas de todo el mundo. La IA en realidad proporciona un enorme potencial para revolucionar y mejorar los productos y servicios, y ese potencial debe aprovecharse de una manera que beneficie a todos.