Inician una investigación contra la empresa desarrolladora de ChatGPT por presunto asesoramiento al atacante de Florida
La justicia estadounidense ha abierto una investigación formal para determinar el grado de responsabilidad de la compañía desarrolladora de ChatGPT en relación con el reciente ataque perpetrado en la Universidad de Florida. La pesquisa se centra en el hallazgo de registros que sugieren que el atacante habría utilizado la herramienta de inteligencia artificial para obtener asesoramiento logístico y táctico previo al incidente.
El foco de la investigación radica en establecer si el software vulneró sus propios protocolos de seguridad, los cuales deberían bloquear consultas relacionadas con actividades delictivas o violentas. Los peritos informáticos analizan el historial de interacciones del tirador para verificar si la IA proporcionó información específica sobre la vulnerabilidad de edificios, métodos para evadir la seguridad o la optimización de armamento, traspasando las barreras éticas y técnicas impuestas por la empresa.
Este caso reabre un intenso debate global sobre la regulación de las plataformas de IA y la responsabilidad legal de sus creadores ante el uso indebido de la tecnología por parte de terceros. Mientras la compañía asegura estar colaborando plenamente con el FBI y las autoridades locales, especialistas en ética digital advierten que este antecedente podría forzar cambios drásticos en la legislación vigente, exigiendo mayores controles de seguridad y una supervisión humana más estricta sobre las respuestas que generan estos modelos de lenguaje.
mleon
Comentarios
Deja tu comentario