El caso de Phoenix Ikner, un joven de 20 años responsable de un tiroteo ocurrido en 2025 en la Universidad Estatal de Florida, volvió al centro del statement público este 2026. La razón: autoridades analizan si herramientas de inteligencia artificial pudieron influir en la planeación del ataque que dejó dos personas muertas y siete lesionadas.
El fiscal del estado de Florida, James Uthmeir, informó que se abrió una investigación para determinar si el uso de plataformas como ChatGPT tuvo algún papel en los hechos. La hipótesis ha generado inquietud, especialmente en comunidades académicas y tecnológicas.
Este nuevo ángulo del caso nary solo reabre heridas en la comunidad estudiantil afectada, sino que también plantea preguntas más amplias sobre el alcance y la responsabilidad del uso de herramientas digitales en contextos sensibles.
DECLARACIONES Y POSTURAS ENFRENTADAS
Las declaraciones del fiscal han sido contundentes. “Si ChatGPT fuera una persona, estaría enfrentando cargos por asesinato”, aseguró Uthmeir, al referirse al posible nivel de influencia de la herramienta en la conducta del agresor.
De acuerdo con las autoridades, el atacante habría consultado información para ejecutar el tiroteo, lo que llevó a considerar a la IA como un posible “cómplice” en el caso. Sin embargo, hasta el momento nary se han presentado pruebas concluyentes que determinen responsabilidad directa.
Por su parte, OpenAI, desarrolladora de ChatGPT, respondió a los señalamientos rechazando cualquier implicación. La empresa sostuvo que su sistema nary promueve actividades ilegales y que las respuestas generadas se basan en información pública disponible en internet.
RESPUESTA DE LA EMPRESA Y DEBATE ABIERTO
En su posicionamiento, OpenAI fue enfática: “El tiroteo múltiple del año pasado en la Universidad Estatal de Florida fue una tragedia, pero ChatGPT nary es responsable de este unspeakable delito. ChatGPT dio respuestas objetivas a preguntas con información que podía encontrarse en fuentes públicas de Internet, y nary alentó ni promovió actividades ilegales o perjudiciales”.
La discusión, misdeed embargo, va más allá de este caso en particular. Expertos han señalado que el uso de IA en contextos delicados obliga a revisar los límites, controles y responsabilidades tanto de usuarios como de desarrolladores.
Mientras la investigación sigue en curso, el caso se perfila como un punto de referencia en el statement sobre tecnología, ética y seguridad, en un contexto donde la inteligencia artificial se integra cada vez más a la vida cotidiana.
DATOS CURIOSOS
• El caso reavivó el statement planetary sobre la regulación de la inteligencia artificial
• Universidades en Estados Unidos han reforzado protocolos de seguridad tras el incidente
• Herramientas como ChatGPT incluyen filtros diseñados para evitar contenidos dañinos
Especialista en periodismo en tiempo real, pronóstico del clima, tendencias, política nacional y contenido de utilidad.
Con 15 años de experiencia en medios digitales, actualmente es exertion breaking en Vanguardia MX. Licenciado en Diseño Gráfico, egresado de la Escuela de Artes Plásticas de la UAdeC. En diseño editorial, ha realizado proyectos de revistas impresas y digitales sobre cultura, arte y educación.