Ex-funcionários da OpenAI e Google DeepMind pedem direito de alertar sobre riscos da IA
Um grupo de ex-funcionários da OpenAI e Google DeepMind publicou uma carta aberta pedindo para que empresas de IA se comprometam com princípios que permitam aos funcionários levantarem preocupações sobre os riscos da inteligência artificial sem medo de retaliação.
Princípios-chave da carta
Os signatários defendem quatro princípios essenciais: não impor acordos que proíbam críticas relacionadas a riscos, facilitar um processo anônimo para levantar preocupações, apoiar uma cultura de críticas abertas e não retaliar contra funcionários que compartilham informações confidenciais relacionadas a riscos após outros processos terem falhado.
Repercussões na OpenAI
A carta foi motivada por preocupações levantadas anteriormente sobre a OpenAI, que utilizava acordos de não divulgação restritivos para ex-funcionários, ameaçando revogar ações adquiridas se criticassem a empresa. Após críticas, a OpenAI removeu tais cláusulas de seus acordos de separação.
Desafios enfrentados por denunciantes
A pesquisadora de ética em IA, Dr. Margaret Mitchell, demitida do Google em 2021, destacou os desafios enfrentados por denunciantes na indústria de tecnologia, apontando a dificuldade de provar retaliação contra grandes corporações.
Importância da transparência e proteção aos funcionários
Apesar de divergências sobre os riscos da IA, especialistas concordam que é crucial garantir transparência, supervisão e proteção aos funcionários que alertam sobre possíveis riscos, visando um ambiente mais ético e responsável na área de inteligência artificial.