El Centro de Inteligencia Artificial y Política Digital (CAIDP) presentó una queja ante la Comisión Federal de Comercio (FTC) de los Estados Unidos en un intento por detener el lanzamiento de poderosos sistemas de IA para los consumidores.
La queja se centró en el modelo de lenguaje grande lanzado recientemente por OpenAI, GPT-4, que el CAIDP describe como “parcial, engañoso y un riesgo para la privacidad y la seguridad pública” en su denuncia del 30 de marzo.
CAIDP, una organización de investigación independiente sin fines de lucro, argumentó que el lanzamiento comercial de GPT-4 viola La sección 5 de la Ley de la FTC, que prohíbe “actos o prácticas desleales o engañosas en el comercio o que lo afecten”.
Para respaldar su caso, la organización de ética de AI señaló contenido en la tarjeta del sistema GPT-4, que indica:
“Descubrimos que el modelo tiene el potencial de reforzar y reproducir sesgos y visiones del mundo específicos, incluidas asociaciones estereotipadas y degradantes dañinas para ciertos grupos marginados”.
En el mismo documento, declaró: “Los sistemas de IA tendrán un potencial aún mayor para reforzar ideologías, visiones del mundo, verdades y falsedades enteras, y cimentarlas o bloquearlas, impidiendo futuras contestaciones, reflexiones y mejoras”.
CAIDP agregó que OpenAI lanzó GPT-4 al público para uso comercial con pleno conocimiento de estos riesgos y que no se realizó una evaluación independiente de GPT-4 antes de su lanzamiento.
Como resultado, el CAIDP quiere que la FTC realice una investigación sobre los productos de OpenAI y otros operadores de poderosos sistemas de IA:
“Es hora de que la FTC actúe […] CAIDP insta a la FTC a abrir una investigación sobre OpenAI, prohibir más lanzamientos comerciales de GPT-4 y garantizar el establecimiento de las medidas de protección necesarias para proteger a los consumidores, las empresas y el mercado comercial”.
Si bien ChatGPT-3 se lanzó en noviembre, la última versión, GPT-4 se considera diez veces más inteligente. Tras su lanzamiento el 14 de marzo, un estudio encontró que GPT-4 pudo aprobar los exámenes de derecho y de escuela secundaria más rigurosos de EE. UU. dentro del percentil 90 superior.
También puede detectar vulnerabilidades de contratos inteligentes en Ethereum, entre otras cosas.
Esta mañana estaba pirateando la nueva API de ChatGPT y encontré algo súper interesante: hay más de 80 complementos secretos que se pueden revelar al eliminar un parámetro específico de una llamada a la API.
Los complementos secretos incluyen un “complemento DAN”, un “complemento de precios criptográficos” y muchos más. pic.twitter.com/Q6JO1VLz5x
— (@rez0__) 24 de marzo de 2023
La queja se produce cuando Elon Musk, Steve Wozniak de Apple y una gran cantidad de expertos en IA firmaron una petición para “pausar” el desarrollo de sistemas de IA más potentes que GPT-4.
Tener un poco de angustia existencial de IA hoy
— Elon Musk (@elonmusk) 26 de febrero de 2023
El presidente de CAIDP, Marc Rotenberg, estuvo entre los otros 2600 firmantes de la petición, que fue presentada por el Future of Life Institute el 22 de marzo.
Relacionado: Así es como ChatGPT-4 gasta $100 en el comercio de criptomonedas
Los autores argumentaron que “la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra”, para bien o para mal.
La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) también ha pedido a los estados que implementen el marco de la “Recomendación sobre la ética de la IA” de la ONU.
Después de que +1000 trabajadores tecnológicos instaran a hacer una pausa en el entrenamiento de los más poderosos #AI sistemas, @UNESCO pide a los países que implementen de inmediato su Recomendación sobre la ética de la IA: el primer marco global de este tipo y adoptado por 193 Estados miembroshttps://t.co/BbA00ecihO pic.twitter.com/GowBq0jKbi
—Eliot Minchenberg (@E_Minchenberg) 30 de marzo de 2023
En otras noticias, un ex investigador de inteligencia artificial de Google recientemente presunto que el chatbot de IA de Google, “Bard”, ha sido entrenado usando las respuestas de ChatGPT.
Si bien el investigador renunció por el incidente, los ejecutivos de Google negaron las acusaciones presentadas por su ex colega.
Revista: Cómo evitar que la IA “aniquile a la humanidad” usando blockchain