Regulaciones y políticas

Italia bloquea ChatGPT e investiga presuntas violaciones

El organismo de control de Italia a cargo de la protección de datos ha anunciado que bloqueará temporalmente el chatbot de inteligencia artificial ChatGPT y abrirá una investigación sobre presuntas infracciones de las normas de privacidad de datos.

La agencia de protección de datos ha ordenado la limitación inmediata del procesamiento de datos para usuarios italianos por parte de OpenAI, la empresa estadounidense detrás de ChatGPT. La agencia destacó que esta fue una respuesta a la reciente violación de datos que sufrió la plataforma de IA el 20 de marzo.

Además, el organismo de control de datos italiano también dijo que falta información para los usuarios en términos de datos recopilados por OpenAI. Además, la agencia señaló que falta una base legal que justifique la recopilación y el almacenamiento masivos de datos personales por parte de la IA mientras entrena sus algoritmos. La agencia también señaló que la información proporcionada por el chatbot de IA no siempre refleja datos reales y determinó que puede haber inexactitud en términos de procesamiento de datos personales.

Además de estos, el organismo de control de datos italiano también destacó una posible violación de las propias reglas de protección de datos de ChatGPT. Según la agencia, aunque ChatGPT limita su uso solo a personas mayores de 13 años, no existe un filtro que verifique la edad del usuario dentro de la aplicación. Esto significa que los menores podrían estar expuestos a respuestas inadecuadas para sus mentes en desarrollo.

Relacionado: Así es como la industria de las criptomonedas está utilizando la inteligencia artificial

Además de Italia, el chatbot de IA también se enfrenta al calor de otras partes del mundo. El 31 de marzo, el Centro de Inteligencia Artificial y Política Digital (CAIDP) presentó una denuncia contra ChatGPT, intentando detener el lanzamiento de poderosos sistemas de IA a las masas. El CAIDP describió el chatbot como una plataforma “sesgada” y “engañosa” que es un riesgo para la seguridad pública y la privacidad.

Revista: Todo se levanta para el juez robot: AI y blockchain podrían transformar la sala del tribunal



Fuente