Advertencia de EEUU por Inteligencia Artificial: pidió a empresas “ética y moral” para cuidar a la sociedad

La Casa Blanca anunció nuevas inversiones en la investigación sobre IA y nuevos métodos de evaluación de los sistemas actuales.

La aparición de la inteligencia artificial y su cotidiano despertó preocupaciones de varios líderes mundiales, entre ellos Estados Unidos. La vicepresidenta, Kamala Harris, sostuvoque las empresas líderes en IA tienen el “deber ético y moral” de proteger a la sociedad de los peligros potenciales de esta tecnología. Los mismos van desde la discriminación hasta el socavamiento de la democracia.

“El sector privado tiene el deber ético, moral y legal de asegurarse de la seguridad de sus productos”, indicó Harris en un comunicado tras haberse reunido con los directivos de Google, Microsoft, Open Ai y Anthropic y varios miembros del Ejecutivo.

Harris señaló que la IA tiene el “potencial de mejorar la vida cotidiana y abordar algunos de los mayores desafíos de la sociedad”, pero también podría “aumentar drásticamente las amenazas a la seguridad, reducir los derechos humanos y la privacidad y socavar la confianza pública en la democracia”.

Agregó que apoya, junto con el presidente Joe Biden, quien rápidamente pasó por la reunión, “nuevas regulaciones potenciales” y “nueva legislación”.

¿Qué riesgos puede presentar?

La inteligencia artificial está presente hace años en la vida cotidiana, desde las redes sociales hasta los electrodomésticos de alta gama y los programas de reclutamiento de personal.

Sus riesgos van desde la discriminación hasta la automatización de tareas realizadas por humanos, el robo de propiedad intelectual o la desinformación sofisticada a gran escala, entre otros.

Sin embargo, el deslumbrante éxito desde fines del año pasado de ChatGPT, la interfaz de IA generativa de OpenAI, una empresa emergente financiada ampliamente por Microsoft, fue el origen de una carrera hacia sistemas cada vez más intuitivos y eficientes, que son capaces de generar textos, imágenes y códigos de programación cada vez más complejo.

“Es bueno tratar de anticiparnos en el tema de la regulación. No va a ser fácil, pero creo que podemos llegar”, expuso la mandataria a los periodistas antes de ingresar a la Casa Blanca.

Su lanzamiento despertó entusiasmo e inquietudes a una nueva escala. Especialmente cuando Sam Altman, el director de OpenAI, anticipó la próxima generación de la llamada IA “general”, donde los programas serán “más inteligentes que los humanos en general”.

A fines de 2022, la Casa Blanca publicó un “Plan para una Declaración de Derechos de la IA”, un breve documento que enumera principios generales como la protección contra sistemas peligrosos o falibles.

Y a principios de este año, el Instituto Nacional de Estándares y Tecnología (NIST), un centro afiliado al gobierno, diseñó un “marco para la gestión de riesgos” relacionado con esta impactante herramienta tecnológica que últimamente viene causando asombro e impacto mundial.

Biden dijo el mes pasado que estas empresas “claramente deben asegurarse de que sus productos sean seguros antes de ponerlos a disposición del público en general”.

Sin embargo, “estas directrices y declaraciones no obligan a las empresas afectadas a hacer nada”, subrayó David Harris, quien fue director de investigación en IA en Meta.

“Los propios patrones reclaman más regulaciones”, remarcó, aunque Facebook, a pesar de haber “llamado públicamente” a mejorar las leyes que rigen la confidencialidad de los datos personales, “paga al mismo tiempo a lobbies que combaten estos proyectos de ley”.