Regulaciones y políticas

OpenAI lanza una subvención para el proyecto de gobernanza democrática de AI

OpenAI, la empresa matriz del chatbot de inteligencia artificial ChatGPT, ha lanzado una iniciativa para aportar una contribución más democrática al desarrollo de la IA.

en el oficial anuncio El 25 de mayo, la compañía dijo que se está preparando para otorgar 10 subvenciones con un valor de $ 100,000 cada una para experimentos en la configuración de un proceso democrático de “prueba de concepto” para determinar las reglas que deben seguir los sistemas de IA.

Según OpenAI, las reglas deben estar “dentro de los límites definidos por la ley” y deben beneficiar a la humanidad.

“Esta subvención representa un paso para establecer procesos democráticos para supervisar AGI y, en última instancia, superinteligencia”.

La compañía dijo que los experimentos serán la base para un proyecto más “global” y “ambicioso” en el futuro. También señaló que las conclusiones de los experimentos no serían vinculantes, pero se utilizarían para explorar cuestiones importantes relacionadas con la gobernanza de la IA.

La subvención es proporcionada por el brazo sin fines de lucro de OpenAI. Dijo que los resultados del proyecto serán gratuitos y accesibles al público.

Relacionado: OpenAI lanza la aplicación oficial ChatGPT para iOS, Android llegará ‘pronto’

Esto se produce cuando los gobiernos de todo el mundo buscan implementar regulaciones sobre la IA generativa de propósito general. El CEO de OpenAI, Sam Altman, recientemente se reunió con los reguladores en Europa para enfatizar la importancia de las regulaciones no restrictivas y no obstaculizar la innovación.

Una semana antes, Altman testificó ante el Congreso de los Estados Unidos con un mensaje similar.

En el anuncio del nuevo programa de subvenciones, OpenAI se hace eco del sentimiento de que las leyes deben adaptarse a la tecnología y que la IA necesita “directrices más complejas y adaptables para su conducta”.

Dio ejemplos de preguntas, como “¿Cómo se deben representar las opiniones en disputa en los resultados de la IA?” Tras lo cual dijo que ningún individuo, empresa o país debería dictar tales decisiones.

OpenAI advirtió previamente que si la IA no se desarrolla de manera cautelosa, podría surgir una forma sobrehumana de IA dentro de una década. Por lo tanto, los desarrolladores “tienen que hacerlo bien”.

Revista: ‘Responsabilidad moral’: ¿Puede blockchain realmente mejorar la confianza en la IA?

Fuente