Mientras los legisladores estadounidenses se las arreglan para resolver otra audiencia del Congreso sobre los peligros que plantea el sesgo algorítmico en las redes sociales, la Comisión Europea (básicamente la rama ejecutiva de la UE) ha presentado un amplio marco regulatorio que, si se adopta, podría tener implicaciones globales para el futuro. del desarrollo de la IA.
Este no es el primer intento de la Comisión de orientar el crecimiento y la evolución de esta tecnología emergente. Después de extensas reuniones con grupos de defensa y otras partes interesadas, la CE publicó tanto la primera Estrategia europea sobre IA como el Plan coordinado sobre IA en 2018. Estos fueron seguidos en 2019 por las Directrices para una IA confiable , y nuevamente en 2020 por el Libro Blanco de la Comisión sobre Inteligencia artificial e informe sobre las implicaciones de seguridad y responsabilidad de la inteligencia artificial, el Internet de las cosas y la robótica. Al igual que con su ambicioso plan de Reglamento General de Protección de Datos (GDPR) en 2018, la Comisión busca establecer un nivel básico de confianza pública en la tecnología basado en protecciones estridentes de privacidad de datos y usuarios, así como contra su posible uso indebido.
”La inteligencia artificial no debe ser un fin en sí misma, sino una herramienta que debe servir a las personas con el objetivo final de incrementar el bienestar humano. Las normas para la inteligencia artificial disponible en el mercado de la Unión o que afecten a los ciudadanos de la Unión deben, por tanto, poner a las personas en el centro (estar centradas en el ser humano), de modo que puedan confiar en que la tecnología se utiliza de forma segura y conforme a la ley. incluyendo el respeto a los derechos fundamentales ”, incluyó la Comisión en su proyecto de reglamento. “Al mismo tiempo, estas reglas para la inteligencia artificial deben ser equilibradas, proporcionadas y no limitar ni obstaculizar innecesariamente el desarrollo tecnológico. Esto es de particular importancia porque, aunque la inteligencia artificial ya está presente en muchos aspectos de la vida diaria de las personas,
De hecho, los sistemas de inteligencia artificial ya son omnipresentes en nuestras vidas, desde los algoritmos de recomendación que nos ayudan a decidir qué mirar en Netflix y a quién seguir en Twitter hasta los asistentes digitales en nuestros teléfonos y los sistemas de asistencia al conductor que vigilan la carretera por nosotros ( o no ) cuando conducimos.
“La Comisión Europea una vez más ha dado un paso adelante de manera audaz para abordar la tecnología emergente, tal como lo había hecho con la privacidad de los datos a través del GDPR”, dijo a Engadget el Dr. Brandie Nonnecke, Director del Laboratorio de Políticas CITRIS en UC Berkeley. “La regulación propuesta es bastante interesante porque ataca el problema desde un enfoque basado en el riesgo”, similar al utilizado en el marco regulatorio de IA propuesto por Canadá .
Estas nuevas reglas dividirían los esfuerzos de desarrollo de la IA de la UE en un sistema de cuatro niveles: riesgo mínimo, riesgo limitado, alto riesgo y prohibido por completo, en función de sus posibles daños al bien público. “El marco de riesgo en el que trabajan gira en torno al riesgo para la sociedad, mientras que cada vez que escuchas hablar del riesgo [en los EE. UU.], Es más o menos riesgo en el contexto de, '¿cuál es mi responsabilidad, cuál es mi exposición?'”, Dijo el Dr. Jennifer King, miembro de Política de Privacidad y Datos del Instituto de Inteligencia Artificial Centrada en el Hombre de la Universidad de Stanford, dijo a Engadget. "Y de alguna manera, si eso incluye los derechos humanos como parte de ese riesgo, entonces se incorpora, pero en la medida en que se pueda externalizar, no se incluye".
Los usos totalmente prohibidos de la tecnología incluirán cualquier aplicación que manipule el comportamiento humano para eludir el libre albedrío de los usuarios, específicamente aquellas que explotan las vulnerabilidades de un grupo específico de personas debido a su edad, discapacidad física o mental, así como también aplicaciones `` reales ''. time 'sistemas de identificación biométrica y aquellos que permiten la' puntuación social 'por parte de los gobiernos, según la propuesta de 108 páginas . Este es un guiño directo al Sistema de Crédito Social de China y dado que estas regulaciones todavía regirían teóricamente las tecnologías que impactan a los ciudadanos de la UE, ya sea que esas personas se encuentren físicamente dentro de las fronteras de la UE o no, podría dar lugar a algunos incidentes internacionales interesantes en un futuro próximo. "Hay mucho trabajo para avanzar en la puesta en práctica de la guía", señaló King.
Las aplicaciones de alto riesgo, por otro lado, se definen como cualquier producto donde la IA está "destinada a ser utilizada como un componente de seguridad de un producto" o la IA es el componente de seguridad en sí mismo (piense, la función para evitar colisiones en su automóvil .) Además, las aplicaciones de inteligencia artificial destinadas a cualquiera de los ocho mercados específicos que incluyen infraestructura crítica, educación, asuntos legales / judiciales y contratación de empleados se consideran parte de la categoría de alto riesgo. Estos pueden llegar al mercado, pero están sujetos a estrictos requisitos regulatorios antes de salir a la venta, como exigir al desarrollador de IA que cumpla con las normas de la UE durante todo el ciclo de vida del producto, garantice estrictas garantías de privacidad y mantenga perpetuamente a un ser humano en el mercado. bucle de control. Lo siento, eso significa que no habrá roboscirujanos completamente autónomos en el futuro previsible.
"La lectura que obtuve de eso fue que los europeos parecen estar visualizando la supervisión, no sé si es una extralimitación decir desde la cuna hasta la tumba", dijo King. "Pero parece existir la sensación de que es necesario realizar un seguimiento y una evaluación continuos, especialmente los sistemas híbridos". Parte de esa supervisión es el impulso de la UE para las cajas de arena regulatorias de IA que permitirán a los desarrolladores crear y probar sistemas de alto riesgo en condiciones del mundo real, pero sin las consecuencias del mundo real.
Estos entornos sandbox, en los que todas las entidades no gubernamentales, no solo la lo suficientemente grande como para tener presupuestos de I + D independientes, tienen libertad para desarrollar sus sistemas de inteligencia artificial bajo la atenta mirada de los reguladores de la CE, "están destinados a prevenir el tipo de efecto escalofriante que se observó. como resultado del GDPR, que llevó a un aumento del 17 por ciento en la concentración del mercado después de su introducción ", Jason Pilkington argumentó recientemente a favor de Truth on the Market ." Pero no está claro si lograrán este objetivo. "La UE también planea establecer una Junta Europea de Inteligencia Artificial para supervisar los esfuerzos de cumplimiento.
Nonnecke también señala que muchas de las áreas abordadas por estas reglas de alto riesgo son las mismas que los investigadores académicos y los periodistas han estado examinando durante años. “Creo que eso realmente enfatiza la importancia de la investigación empírica y el periodismo de investigación para permitir que nuestros legisladores comprendan mejor cuáles son los riesgos de estos sistemas de IA y también cuáles son los beneficios de estos sistemas”, dijo. Un área en la que estas regulaciones no se aplicarán explícitamente son las IA construidas específicamente para operaciones militares.
Las aplicaciones de riesgo limitado incluyen cosas como chatbots en sitios web de servicios o con contenido deepfake. En estos casos, el fabricante de IA simplemente tiene que informar a los usuarios por adelantado que interactuarán con una máquina en lugar de con otra persona o incluso con un perro . Y para los productos de riesgo mínimo, como la IA en los videojuegos y realmente la gran mayoría de las aplicaciones que la CE espera ver, las regulaciones no requieren restricciones especiales o requisitos adicionales que deberían completarse antes de salir al mercado.
Y si alguna empresa o desarrollador se atreve a ignorar estas normas, descubrirán que entrar en conflicto con ellas conlleva una multa considerable, una que se puede medir en porcentajes del PIB. Específicamente, las multas por incumplimiento pueden llegar hasta los 30 millones de euros o el 4 por ciento de los ingresos anuales globales de la entidad, lo que sea mayor.
"Es importante para nosotros a nivel europeo transmitir un mensaje muy fuerte y establecer los estándares en términos de hasta dónde se debe permitir que lleguen estas tecnologías", dijo a Bloomberg Dragos Tudorache, miembro del Parlamento Europeo y jefe del comité de inteligencia artificial. en una entrevista reciente. "Poner un marco regulatorio a su alrededor es imprescindible y es bueno que la Comisión Europea tome esta dirección".
Queda por ver si el resto del mundo seguirá el ejemplo de Brussell en esto. Con la forma en que las regulaciones definen actualmente qué es una IA, y lo hace en términos muy amplios, es probable que podamos esperar que esta legislación afecte casi todos los aspectos del mercado global y todos los sectores de la economía global, no solo en el reino digital. Por supuesto, estas regulaciones tendrán que pasar por un proceso parlamentario riguroso (a menudo contencioso) que podría tardar años en completarse antes de ser promulgado.
Y en cuanto a las posibilidades de Estados Unidos de promulgar regulaciones similares por su cuenta, bueno. "Creo que veremos algo propuesto a nivel federal, sí", dijo Nonnecke. “¿Creo que se aprobará? Esas son dos cosas diferentes."
Más Información: https://www.priv.gc.ca/en/about-the-opc/what-we-do/consultations/completed-consultations/consultation-ai/reg-fw_202011/
Más Información: https://ec.europa.eu/transparency/regdoc/rep/1/2018/EN/COM-2018-237-F1-EN-MAIN-PART-1.PDF
Más Información: http://europa.eu/rapid/press-release_IP-18-6689_en.htm
Fuente: Agencias