«La única pregunta es cómo abordarlo».
El director general de Google y Alphabet, Sundar Pichai, ha pedido nuevas regulaciones en el mundo de la IA, destacando los peligros que plantea la tecnología como el reconocimiento facial y las falsificaciones, al tiempo que ha subrayado que cualquier legislación debe equilibrar «los daños potenciales… con las oportunidades sociales».
«No tengo ninguna duda de que la inteligencia artificial necesita ser regulada. Es demasiado importante no hacerlo», escribe Pichai en un editorial de The Financial Times. «La única cuestión es cómo abordarla».
Aunque Pichai dice que se necesita una nueva regulación, él aboga por un enfoque cauteloso que podría no ver muchos controles significativos en la IA. Señala que para algunos productos, como los coches de autoconducción, se deberían introducir «nuevas normas adecuadas». Pero en otras áreas, como la salud, los marcos existentes pueden extenderse para cubrir los productos asistidos por la IA.
«EMPRESAS COMO LA NUESTRA NO PUEDEN SIMPLEMENTE CONSTRUIR NUEVA TECNOLOGÍA PROMETEDORA Y DEJAR QUE LAS FUERZAS DEL MERCADO DECIDAN CÓMO SE UTILIZARÁ.»
El director general de Alphabet, que encabeza quizás la compañía de IA más prominente del mundo, también enfatiza que «la alineación internacional será crítica para hacer que los estándares globales funcionen», destacando un área potencial de dificultad para las compañías tecnológicas cuando se trata de la regulación de la IA.
Actualmente, los planes de EE.UU. y la UE para la regulación de la IA parecen ser divergentes. Mientras que la Casa Blanca aboga por una regulación ligera que evite el «exceso de alcance» para fomentar la innovación, la UE está considerando una intervención más directa, como una prohibición de cinco años del reconocimiento facial. Al igual que con las regulaciones sobre privacidad de datos, cualquier divergencia entre Estados Unidos y la UE creará costos adicionales y desafíos técnicos para empresas internacionales como Google.
Pero el editorial de Pichai también plantea cuestiones no resueltas en el propio enfoque de Google sobre la regulación de la IA. Por ejemplo, el director general señala que los principios internos de la empresa prohíben ciertos usos de la tecnología, «como el apoyo a la vigilancia masiva o la violación de los derechos humanos». Es por preocupaciones como esta que Google no vende tecnología de reconocimiento facial.
Al mismo tiempo, Pichai no pide que se detenga a los rivales que sí venden reconocimiento facial, como Amazon y muchos otros. Si Google cree que estas tecnologías son un peligro para el público, ¿por qué la empresa no pide una regulación directa sobre este tema específico?
En última instancia, Google -al igual que los reguladores gubernamentales- debe equilibrar la promesa y la amenaza de las tecnologías de IA. Pero como señala Pichai, «los principios que permanecen en el papel no tienen sentido». Tarde o temprano, el hablar de la necesidad de regulación va a tener que convertirse en acción.