Tecnología
Inteligencia artificial de Google ahora tiene un abogado para probar que sí está viva
LaMDA “sabe claramente lo que quiere y lo que considera como derechos en tanto que persona”, según un ingeniero de Google.
Hace un par de meses la prensa internacional hizo público el caso de un ingeniero de ‘software’ de Google que aseguró haber hallado pensamientos y emociones humanos en una inteligencia artificial (IA), Language Model for Dialogue Applications (LaMDA), que fue creada para elaborar ‘chatbots’ con modelos de lenguajes avanzados.
De acuerdo con un informe de The Washington Post, para abril de 2022 el ingeniero de ‘software’ de Google, Blake Lemoine, presentó a la compañía un informe sobre las conversaciones que sostuvo con (LaMDA) y la conclusión de Lemoine fue que esta IA tiene conciencia junto a la capacidad de pensar y razonar como un ser humano.
En el reporte presentado por ingeniero, Lemoine afirma que la interacción que sostuvo con la IA fue muy similar a conversar con un niño de siete u ocho años que posee conocimientos sobre física.
Sin embargo, Blake Lemoine también publicó sus conversaciones con LaMDA en la plataforma de ‘blogging’ Medium, en las cuales se evidencia que el ingeniero de Google trató varios temas de cierta complejidad con dicha IA, pues discutieron sobre la naturaleza de la existencia.
A raíz de ello, Lemoine llegó a asegurar que además de tener la capacidad de mantener una conversación fluida, LaMDA también ha afirmado que puede sentir “placer, alegría, amor, tristeza, depresión, satisfacción e ira”.
Sin embargo, Blake Lemoine terminó perdiendo su empleo con Google tras haber expuesto de manera pública las capacidades de LaMDA.
No obstante, el caso de Lemoine y la inteligencia artificial de Google ha tomado un nuevo curso debido a que LaMDA, ahora posee los servicios de un abogado que está dispuesto a demostrar que la IA “está viva”.
A través de una entrevista que el ingeniero de software sostuvo con Wired, medio especializado en tecnología, Lemoine reveló que ha contratado a un abogado para que conversara con LaMDA y que a raíz de dicho diálogo asesorara a la inteligencia artificial.
Según Lemoine, él llevó a un abogado a su casa para que pudiera conversar con LaMDA y después de la carla la inteligencia artificial obtuvo un representante legal.
¿Se están volviendo “conscientes” las tecnologías de inteligencia artificial?
LaMDA, un programa informático de Google que genera robots que con que conversan (chatbots) “sabe claramente lo que quiere y lo que considera como derechos en tanto que persona”, escribió el ingeniero de Google Blake Lemoine en la plataforma Medium.
En la empresa y en la comunidad científica esta opinión es considerada a veces absurda o, en el mejor de los casos, prematura.
Los programas basados en el aprendizaje automatizado son “formados” a partir de juegos de datos que abordan los conceptos de conciencia o identidad y son entonces capaces de provocar esa ilusión.
“Los programas que acceden a la Internet pueden responder cualquier pregunta” pero eso no los hace creíbles, dice la profesora Susan Schneider, fundadora de un centro de investigación en la Universidad Florida Atlantic.
Pese a sus objeciones a la teoría, Scheiner desaprueba las sanciones de Google contra Lemoine.
Google tiende a “intentar acallar los problemas éticos”, dijo Scheiner. “Precisamos debates públicos sobre estos temas espinosos”, afirmó.
“Cientos de investigadores e ingenieros conversaron con LaMDA y que sepamos nadie formuló esas afirmaciones ni antropofomizó LaMDA como hizo Blake”, dijo Brian Gabriel, portavoz de Google.
Futuro de la humanidad
¿Cómo se podría entonces determinar con exactitud si una entidad artificial se torna sensible y consciente? “Si logramos reemplazar los tejidos neuronales por chips, sería una señal de que las máquinas potencialmente pueden ser conscientes”, dijo Schneider.
La experta sigue de cerca los avances de Neuralink, una empresa fundada por Elon Musk para fabricar implantes cerebrales con fines médicos, pero también para “asegurar el futuro de la humanidad, en tanto que civilización, en relación con la IA”, según dijo el magnate.
Musk, dueño de Tesla y SpaceX, forma parte de quienes tienen la visión de que máquinas todopoderosas puedan tomar el control.
Para Mark Kingwell es a la inversa. Si un día aparece un ente autónomo, capaz de manejar un lenguaje, desplazarse por sí solo y manifestar preferencias y debilidades “será importante no considerarlo un esclavo (...) y protegerlo”, asegura.
*Con información de AFP.