Un hombre en EEUU decidió eliminar la sal de su dieta diaria, por lo que solicitó consejos a ChatGPT, la herramienta de Inteligencia Artificial (IA) de OpenAI, pero todo estuvo cerca de terminar en algo fatal, luego de que acabara en el hospital producto de un envenenamiento, desatando así más dudas en cuanto al uso de esta tecnología con estos fines.
La revista Annals of Internal Medicine publicó recientemente un artículo describiendo el caso. En este, menciona que el hombre, de 60 años y sin antecedentes psiquiátricos o médicos, fue a emergencias expresando preocupación de que su vecino lo estuviera envenenando. A pesar de su intranquilidad, la explicación de lo ocurrido era mucho más simple.
LEA TAMBIÉN: VIDEO VIRAL: LE ESTABA PROPONIENDO MATRIMONIO A SU NOVIA Y UN VOLCÁN DETRÁS DE ELLOS HIZO ERUPCIÓN
Tras análisis pertinentes, que reflejaron resultados normales para la edad, el paciente dijo que mantenía varias restricciones dietéticas. Contó también que destilaba su propia agua en casa. Después de las alucinaciones paranoicas que comenzó a padecer el sujeto, los médicos contactaron al Departamento de Control de Envenenamiento. Fue así como se supo que sufría de intoxicación por bromuro.
Según el informe, el paciente quiso quitar la sal de su régimen alimenticio. Fue por eso que, por tres meses, sustituyó el cloruro de sodio por bromuro de sodio, luego de consultar a la IA. Dicha persona leyó en ChatGPT que el cloruro se puede intercambiar por bromuro, algo que en parte es cierto, pero no para su ingesta.
PELIGROS DE LA IA PARA LA SALUD
Alarmados por dicha situación, autoridades sanitarias resaltaron que el mal uso de la IA puede ayudar potencialmente al desarrollo de consecuencias contraproducentes. Por eso, según El Tiempo, es importante usar dicha herramienta con conciencia. Además, ante cualquier duda sobre la salud, lo ideal es consultar a un equipo médico profesional.
Bajo ese contexto, los investigadores del Annals of Internal Medicine recalcaron la importancia de considerar que ChatGPT y otros sistemas de IA no están exentas de imprecisiones científicas. Igualmente, también es probable que no posean la capacidad de discutir críticamente los resultados y, en última instancia, alimentarían la propagación de información equívoca.