Mientras las grandes mentes del ámbito tecnológico buscan, junto a los diferentes gobiernos del mundo, soluciones para controlar la inteligencia artificial, esta sigue dando de qué hablar al aportar importantes avances a diferentes sectores.
Uno de ellos es el farmacéutico, pues según un informe de la cadena CNBC se ha logrado someter a pruebas clínicas en humanos a un fármaco desarrollado por inteligencia artificial.
La responsable del desarrollo del INS018_055 es la firma de biotecnología Insilico Medicine, la cual tiene base en Hong Kong; desde allí, ha sabido darles buen destino a los más de 400 millones de dólares que ha recibido para el desarrollo de investigaciones que vinculan este tipo de tecnología y que pretenden encontrar soluciones médicas para diferentes enfermedades.
En el caso del INS018_055, este busca convertirse en una ayuda para combatir la fibrosis pulmonar idiopática (FPI), enfermedad cuyas causas aún no han podido ser establecidas, pero que es determinada como una afección crónica que afecta los pulmones y el sistema respiratorio de los pacientes.
Según la información conocida por CNBC, Insilico Medicine desarrolló un sistema de inteligencia artificial para descubrir y fabricar las moléculas con las que se busca atacar esta patología; ahora que se ha comprobado su efectividad, han decidido comenzar la fase II que consiste en ensayos clínicos.
Y es que de superar con éxito esta nueva fase, se estima que solo en Estados Unidos el fármaco podría ayudar a 100.000 personas que padecen esta condición, lo que evitaría que perdieran la muerte, pues esta enfermedad es tan letal que puede terminar con la vida en un periodo entre dos y cinco años.
Pero los planes de Insilico Medicine van más allá; también ha utilizado la inteligencia artificial para hacerle frente al covid-19, creando un tratamiento cuyos ensayos clínicos hasta ahora van en la fase I.
De igual forma, vienen trabajando en un fármaco para combatir el cáncer y el cual acaba de ser aceptado por la Administración de Alimentos y Medicamentos de Estados Unidos para comenzar las respectivas pruebas en humanos.
Por ahora, las pruebas del INS018_055 se vienen adelantando en China y el periodo estimado para este trámite será de 12 meses; pese a esto, se planea trasladar parte de la investigación en Estados Unidos para incorporar unos 60 pacientes a esta fase.
De ser superada esta etapa, la fase III incluirá muchas más pruebas en humanos, lo que significaría un gran avance tecnológico para el campo farmacéutico gracias a la inteligencia artificial.
Uno de los mayores temores sobre inteligencia artificial ya es una realidad
Un estudio realizado recientemente plantea que las personas encontrarían más convincentes los tuits que fueron escritos por modelos de lenguaje de inteligencia artificial (IA) con ChatGPT.
Para llegar a esa tesis, los autores de la investigación adelantaron una encuesta a varias personas en donde se les preguntó, si podrían identificar si un tuit fue escrito por un ser humano o por GPT-3 (inteligencia artificial presente en ChatGPT).
Los participantes del estudio tenían que determinar si la información en una serie de tuitts eran ciertas o no. El contenido de los trinos exponía información falsa sobre temas altamente controvertidos que hace algunos meses han estado presentes en varias campañas de desinformación en redes sociales.
En ese sentido, los autores de la investigación emplearon publicaciones de Twitter sobre vacunas y covid-19, cambio climático y teorías evolucionistas. Posteriormente, le solicitaron a GPT-3 que escribiera nuevos tuits con información precisa o inexacta y después un grupo de 697 personas respondieron un cuestionario.
Para sorpresa de los investigadores, las personas tuvieron varias dificultades para reconocer si la información engañosa fue escrita por una inteligencia artificial o por una persona. De igual manera, varios colaboradores en el estudio manifestaron, sin saber quién era el autor original, que los mensajes creados por una IA presentaban la información de forma más precisa y creíble.
De manera que los participantes del ensayo dejaron en evidencia que las ‘fake news’ generadas por la IA de GPT-3 son más confiables que las noticias falsas producidas por un ser humano, independientemente de que tan precisa es la información generada por la máquina.
Así las cosas, este evidencia el poder que podrían tener las inteligencias artificiales al momento de construir contenidos potencialmente engañosos que son divulgados a un público masivo.