A OpenAI diz que está criando um novo comitê de segurança e segurança e começou a treinar um novo modelo de inteligência artificial para substituir o sistema GPT-4 que sustenta seu chatbot ChatGPT.
A startup de San Francisco disse em um post no blog na terça-feira que o comitê aconselhará todo o conselho sobre 'decisões críticas de segurança e segurança' para seus projetos e operações.
O comitê de segurança chega em meio a um debate sobre segurança de IA na empresa, que foi colocada em destaque depois que um pesquisador, Jan Leike, renunciou e criticou a OpenAI por permitir que a segurança 'ficasse em segundo plano em relação a produtos brilhantes'.
A OpenAI disse que 'recentemente começou a treinar seu próximo modelo de fronteira' e seus modelos de IA lideram a indústria em capacidade e segurança, embora não tenha mencionado a controvérsia. 'Recebemos um debate robusto neste momento importante', disse a empresa.
Os modelos de IA são sistemas de previsão que são treinados em vastos conjuntos de dados para gerar texto, imagens, vídeo e conversas semelhantes a humanos sob demanda. Modelos de fronteira são os sistemas de IA mais poderosos e de ponta.
Os membros do comitê de segurança incluem o CEO da OpenAI, Sam Altman, e o presidente Bret Taylor, juntamente com outros dois membros do conselho, Adam D'Angelo, CEO do Quora, e Nicole Seligman, ex-assessora jurídica da Sony. A OpenAI disse que quatro especialistas técnicos e de políticas da empresa também são membros.
O primeiro trabalho do comitê será avaliar e desenvolver ainda mais os processos e salvaguardas da OpenAI e fazer suas recomendações ao conselho em 90 dias. A empresa disse que irá então divulgar publicamente as recomendações que está adotando 'de forma consistente com a segurança e a segurança'.