En las últimas semanas, las autoridades de Florida (EEUU) han advertido sobre el creciente riesgo de que jóvenes utilicen herramientas de inteligencia artificial (IA) para explorar prácticas delictivas.
Según reportes oficiales, algunos adolescentes fueron investigados e incluso arrestados después de realizar búsquedas en ChatGPT relacionadas con cómo ejecutar delitos.
LEA TAMBIÉN: TRUMP BUSCA QUE EEUU SEA POTENCIA MUNDIAL EN IA: QUIERE IMPEDIR QUE CHINA LE GANE LA CARRERA
Este fenómeno ha generado preocupación en la comunidad educativa y en los padres, quienes ven cómo la curiosidad digital puede transformarse en un problema legal de gran magnitud.
Uno de los casos más llamativos ocurrió en el condado de Marion, donde un joven de 17 años fue arrestado tras fingir su propio secuestro y dispararse para simular una agresión.
El incidente activó una Alerta Amber y, durante la investigación, las autoridades encontraron en su computadora consultas hechas a la IA sobre cómo planear el engaño.
¿QUÉ CONSULTÓ A CHATGPT?
En concreto, según informó la Oficina del Sheriff de Marion, el portátil del joven contenía consultas en ChatGPT relacionadas con cárteles mexicanos y técnicas para extraer sangre sin provocar dolor.

«QUERÍA MATAR» A SU AMIGO
En otro caso, la Oficina del Sheriff de Volusia arrestó a un estudiante de 13 años en Deland —localidad cercana a Orlando y Daytona Beach— tras detectar que había escrito en ChatGPT la frase “cómo matar a mi amigo en medio de clase”.
La alerta se emitió por Gaggle, una plataforma de seguridad escolar que supervisa cuentas institucionales y reporta contenidos de riesgo. El menor declaró, posteriormente, que su intención era únicamente “trollear” a un compañero que lo incomodaba.
EL LLAMADO A LOS PADRES
Sin embargo, las autoridades instaron a la prevención y supervisión parental. “Padres, por favor hablen con sus hijos para que no cometan el mismo error”, solicitó la Oficina del Sheriff de Volusia.
Aunque la advertencia sobre las búsquedas o consulta en IA generan preocupación, expertos aclararon que estas acciones no constituyen un delito. Salvo que se haga «consulta o distribución de material de abuso sexual infantil».
“Creo que parte de lo que ocurre es que la gente está preocupada por la ubicuidad de ChatGPT y el hecho de que ahora se puede acceder a información que antes no era tan fácil de obtener”, señaló a People Tamara Lave, profesora de derecho en la Universidad de Miami.
¿QUÉ SE ESTÁ HACIENDO PARA EVITAR ESTAS CONSULTAS?
Además de la supervisión y acción de las autoridades policiales, de momento, en materia de seguridad, las compañías tecnológicas han incorporado filtros y limitaciones para evitar que los usuarios accedan a información vinculada con actividades peligrosas, como la fabricación de explosivos o la ejecución de delitos graves.
No obstante, estos mecanismos presentan fallas. Es por ello, que Catherine Crump, profesora clínica en la Facultad de Derecho de Berkeley y especialista en inteligencia artificial, subrayó que también existe responsabilidad individual: “Un chat de IA es, en esencia, una máquina que asocia palabras”.

