Tecnología
Samsung prohíbe usar ChatGPT: esta es la razón por la que la marca le tiene miedo a la inteligencia artificial
La compañía tomó serias medidas contra esa IA.
La compañía surcoreana Samsung Electronics ha decidido prohibir el uso de los servicios de inteligencia artificial como ChatGPT a los empleados de su división de móviles y electrodomésticos. La empresa defendió esa decisión alegando ejemplos de “uso indebido” de esta tecnología.
El interés en los robots de conversación basados en inteligencia artificial se ha disparado desde la aparición en noviembre de ChatGPT, respaldado por Microsoft.
Este servicio causó furor por su capacidad de generar ensayos, canciones, respuestas de exámenes o incluso artículos de noticias. Pero también provocó inquietud por la recogida y procesamiento de datos que realizan este tipo de aplicaciones.
Grandes empresas financieras, como Goldman Sachs, prohibieron o restringieron el uso de estas plataformas a sus empleados. Ahora, la surcoreana Samsung Electronics, el mayor productor mundial de chips de memoria y teléfonos inteligentes, se une a esa lista.
Lo más leído
La prohibición se aplica a la división de móvil y electrodomésticos, dijo un representante de Samsung a la AFP.
Un comunicado interno obtenido por la AFP explica que Samsung busca formas de emplear estos servicios de IA en “un entorno de seguridad para los empleados de forma que la eficiencia laboral pueda mejorar”.
“Hasta que estas medidas estén preparadas, prohibimos temporalmente el uso de servicios de IA generativa en los ordenadores propiedad de la compañía”, afirma.
El comunicado también pide a su plantilla que no suba información relacionada con el trabajo a estas plataformas a través de ordenadores personales desde fuera de las instalaciones de la empresa.
Samsung argumenta que ha habido “casos de uso indebido” de servicios como ChatGPT por parte de sus empleados, pero no ofrece detalles al respecto.
Más del 60 % de los trabajadores de Samsung dijo en una encuesta interna que había riesgos de seguridad vinculados al uso de estas plataformas en dispositivos de la empresa.
Cabe destacar que hace un par de semanas uno de los responsables en la creación de ChatGPT sostuvo una conversación con ABC News en la que reveló que en este momento tiene varias preocupaciones sobre las recientes innovaciones en torno a la inteligencia artificial.
Creador de ChatGPT dice que ahora le tiene miedo a su inteligencia artificial
Sam Altman, CEO de OpenAI (empresa responsable de la creación de ChatGPT), manifestó que tiene una gran preocupación sobre el uso de la inteligencia artificial como herramienta para generar campañas desinformación a gran escala. De igual manera, reconoció que el chatbot de OpenAI tiene la capacidad de escribir código informático y por ello existe el peligro de que ese sistema sea empleado como una herramienta para realizar ciberataques más eficientes.
Según el CEO de OpenAI, la nueva versión de ChatGPT (GPT-4) posee la habilidad de entender imágenes y extraer información a partir de ellas, por ello la IA puede resolver ciertos acertijos y también tiene la capacidad de brindar una explicación bastante acertada sobre un meme que circula en Internet.
Por ello reconoció que a pesar de que esta inteligencia artificial está al alcance de un número reducido de personas, que colaboran en el programa de desarrollos beta para ChatGPT, eventualmente esa tecnología podría ser empleada para generar y divulgar informaciones falsas.
Sam Altman manifestó que sí existe un peligro real sobre el uso de chatbots como ChatGPT para fines negativos, debido a que OpenAI no es la única empresa que está desarrollando ese tipo de tecnología y muy seguramente en el futuro aparecerán otras compañías no impondrían ciertos límites para sus inteligencias artificiales.
En ese sentido, Altman reconoció en su entrevista con ABC News que es necesario que la especie humana le tenga miedo a las IA, porque así siempre tendrá una consciencia sobre cuál es la mejor manera de usar y sobre todo limitar esas tecnologías.
Finalmente, el CEO de Open AI indicó que considera muy poco posible que en un futuro se presente un escenario similar a al que se plantea en la cinta ‘Terminator’, en donde una la inteligencia artificial llamado Skynet toma el control del arsenal nuclear de varios países y le declara la guerra a la humanidad bombardeándola con esas armas.
De acuerdo con Altman, no es posible que ocurra dicha situación porque las inteligencias artificiales siempre requerirán de una interacción humana y por ello será el ser humano quien tendrá que indicarle a una IA lo que debe hacer.
Con información de AFP