TECNOLOGÍA
En Google piden ponerle límite a la inteligencia artificial. ¿Por qué?
Para el CEO de la compañía, Sundar Pichai, esta tecnología, así como trae grandes aportes para la vida de los seres humanos, puede tener consecuencias negativas.
En momentos en que la tecnología ha puesto a pensar a los gobiernos del mundo en una regulación que esté a favor del usuario y que no impida el desarrollo de la misma, Sundar Pichai, CEO de Google, ha dado unas declaraciones que dan muestra de la necesidad de regular esos avances.
En un artículo publicado en Financial Times, Pichai destacó los avances de Google en esta materia -esta es una de las compañías más destacadas en el desarrollo de herramientas de inteligencia artificial en áreas de la salud, cambio climático y aerolíneas- y la importancia de regular tecnologías como la inteligencia artificial (IA) dado su potencial y las posibles consecuencias negativas que podrían desencadenar de esta. “La inteligencia artificial es una de las tecnologías más prometedoras con potencial para mejorar miles de millones de vidas, pero la historia está llena de ejemplos que demuestran que las virtudes de la tecnología no están garantizadas”, escribió.
Precisamente, Pichai señaló en el artículo que “hay verdaderas preocupaciones sobre las posibles consecuencias negativas de la IA, desde los deepfakes hasta usos nefastos del reconocimiento facial”. Y recalcó que empresas como Google no pueden crear nuevas tecnologías y dejar que “los mercados determinen cómo se usan”. “No tengo dudas que la inteligencia artificial necesita ser regulada. Es muy importante. La única cuestión es cómo hacerlo”, afirmó.
Al respecto, señaló que la coordinación internacional será esencial para tener una regulación adecuada para este tipo de tecnologías y afirmó que las leyes existentes son una buena base para construir la normatividad futura. Propone que un buen marco regulatorio debe incluir temas de seguridad, transparencia, equidad y responsabilidad. Así, para Pichai, las medidas adoptadas deberán tener en cuenta los posibles riesgos y amenazas que pueden derivarse del mal uso de las herramientas basadas en inteligencia artificial.
También destacó la importancia de que las grandes tecnológicas reconozcan la necesidad de una regulación y la existencia de unos principios para la aplicación de la inteligencia artificial. “Creemos que cualquier empresa que desarrolle herramientas de IA también debería adoptar principios que guíen el desarrollo y procesos de revisión rigurosos”. “Ofrecemos nuestros conocimientos, experiencia y herramientas mientras nos enfrentamos juntos a estos asuntos”, agregó.
Lo más leído
La columna llega en momentos donde el mundo está planteando una regulación para las grandes tecnológicas teniendo como punto de base la protección del usuario. Incluso, el pasado lunes la Comisión Europea señaló que está evaluando la posibilidad de prohibir el uso de las tecnologías de reconocimiento facial en espacios públicos por un periodo de hasta cinco años con el objetivo de avanzar en el desarrollo de soluciones que mitiguen los riesgos para los ciudadanos.