Evolução da IA: Avanços, Desafios e Implicações Éticas
A Evolução da Inteligência Artificial: Avanços, Desafios e Implicações Éticas
Mantendo-se Atualizado no Mundo Acelerado da IA
Acompanhar a rápida evolução da Inteligência Artificial (IA) é uma tarefa desafiadora. Até que uma IA possa fazer isso por você, aqui está um resumo conveniente de recentes notícias no mundo do aprendizado de máquina, juntamente com pesquisas e experimentos notáveis que não foram abordados anteriormente.
Prioridade aos Produtos em Detrimento da Segurança
Nesta semana, a OpenAI novamente dominou os holofotes da notícia (apesar dos melhores esforços da Google) com não apenas o lançamento de um novo produto, mas também com uma certa intriga palaciana. A empresa apresentou o GPT-4o, seu modelo generativo mais avançado até o momento, e poucos dias depois, efetivamente dissolveu uma equipe que trabalhava no problema do desenvolvimento de controles para evitar que sistemas de IA “superinteligentes” se tornem renegados. O desmonte da equipe gerou muitos manchetes, como era de se esperar.
Relatos, incluindo os nossos, sugerem que a OpenAI priorizou o lançamento de novos produtos, como o mencionado GPT-4o, em detrimento da pesquisa de segurança da equipe, levando à renúncia dos dois co-líderes da equipe, Jan Leike e Ilya Sutskever, co-fundador da OpenAI.
Desafios da Segurança da IA
A IA superinteligente ainda é mais teórica do que real no momento; não está claro quando – ou se – a indústria de tecnologia alcançará os avanços necessários para criar uma IA capaz de realizar qualquer tarefa que um ser humano possa. No entanto, a cobertura desta semana parece confirmar uma coisa: a liderança da OpenAI, em particular o CEO Sam Altman, tem priorizado cada vez mais os produtos em detrimento das salvaguardas de segurança.
Altman teria “enfurecido” Sutskever ao apressar o lançamento de recursos alimentados por IA na primeira conferência de desenvolvedores da OpenAI, em novembro passado. Ele também teria sido crítico em relação a Helen Toner, diretora do Centro de Segurança e Tecnologias Emergentes de Georgetown e ex-membro do conselho da OpenAI, sobre um artigo que ela co-escreveu e que criticava a abordagem da OpenAI em relação à segurança – a ponto de tentar removê-la do conselho.
Nos últimos anos, a OpenAI tem permitido que o armazenamento de seu chatbot se encha de spam e (supostamente) tenha coletado dados do YouTube, contrariando os termos de serviço da plataforma, enquanto expressa ambições de permitir que sua IA gere representações de pornografia e violência. Certamente, a segurança parece ter ficado em segundo plano na empresa, e um número crescente de pesquisadores de segurança da OpenAI chegaram à conclusão de que seu trabalho seria melhor apoiado em outro lugar.
Outras Notícias Relevantes sobre IA
A segurança da IA está obviamente no topo da mente esta semana, com as saídas da OpenAI, mas a Google DeepMind está avançando com uma nova “Estrutura de Segurança de Fronteira”. Basicamente, é a estratégia da organização para identificar e, espera-se, prevenir quaisquer capacidades fora de controle – não precisa ser uma AGI; pode ser um gerador de malware enlouquecido ou algo do tipo.
A estrutura tem três etapas: (1) Identificar capacidades potencialmente prejudiciais em um modelo, simulando seus caminhos de desenvolvimento; (2) avaliar modelos regularmente para detectar quando eles atingiram “níveis críticos de capacidade” conhecidos; e (3) aplicar um plano de mitigação para evitar a exfiltração (por outro ou por si mesmo) ou o lançamento problemático.
Pesquisadores da Universidade de Cambridge também identificaram um risco bastante diferente, preocupados com a proliferação de chatbots treinados nos dados de uma pessoa falecida, a fim de fornecer um simulacro superficial dessa pessoa. Embora possa ser usado em cenários de gerenciamento de luto, essa tecnologia também apresenta riscos sociais e psicológicos que precisam ser considerados.