Nova Pesquisa Antropica Lança Luz sobre Caixa Preta da IA

Apesar de serem criados por humanos, os grandes modelos de linguagem ainda são bastante misteriosos. Os algoritmos de alta octanagem que impulsionam o nosso atual boom de inteligência artificial têm uma maneira de fazer coisas que não são facilmente explicáveis para as pessoas que os observam. Por isso, a inteligência artificial foi largamente apelidada de “caixa preta”, um fenômeno que não é facilmente compreendido do exterior.

Uma nova pesquisa publicada pela Anthropic, uma das principais empresas da indústria de inteligência artificial, tenta esclarecer os aspectos mais confusos do comportamento algorítmico da IA. Na terça-feira, a Anthropic publicou um artigo de pesquisa projetado para explicar por que seu chatbot de IA, Claude, escolhe gerar conteúdo sobre determinados assuntos em detrimento de outros.

Os sistemas de IA são estabelecidos de forma aproximada ao cérebro humano – redes neurais em camadas que recebem e processam informações e depois tomam “decisões” ou previsões com base nessas informações. Esses sistemas são “treinados” em grandes subconjuntos de dados, o que lhes permite fazer conexões algorítmicas. No entanto, quando os sistemas de IA geram dados com base em seu treinamento, os observadores humanos nem sempre sabem como o algoritmo chegou a esse resultado.

Essa incerteza deu origem ao campo da “interpretação da IA”, onde os pesquisadores tentam rastrear o caminho da tomada de decisão da máquina para entender sua saída. No campo da interpretação da IA, um “recurso” se refere a um padrão de “neurônios” ativados dentro de uma rede neural – efetivamente um conceito ao qual o algoritmo pode remeter. Quanto mais “recursos” dentro de uma rede neural os pesquisadores conseguem entender, mais conseguem entender como determinadas entradas acionam a rede para afetar determinadas saídas.

Em um memorando sobre seus resultados, os pesquisadores da Anthropic explicam como usaram um processo conhecido como “aprendizado de dicionário” para decifrar quais partes da rede neural de Claude mapeavam a conceitos específicos. Usando esse método, os pesquisadores afirmam terem sido capazes de “começar a entender o comportamento do modelo, vendo quais recursos respondem a uma entrada específica, fornecendo-nos assim uma visão sobre o ‘raciocínio’ do modelo para chegar a uma determinada resposta.”

Em uma entrevista com a equipe de pesquisa da Anthropic conduzida por Steven Levy da Wired, os funcionários explicaram como foi decifrar como o “cérebro” de Claude funciona. Depois de descobrirem como descriptografar um recurso, isso levou a outros:

“Um recurso que chamou a atenção deles estava associado à Ponte Golden Gate. Eles mapearam o conjunto de neurônios que, quando disparados juntos, indicavam que Claude estava ‘pensando’ na imensa estrutura que liga San Francisco ao condado de Marin. Além disso, quando conjuntos semelhantes de neurônios eram ativados, evocavam assuntos adjacentes à Ponte Golden Gate: Alcatraz, o Governador da Califórnia Gavin Newsom e o filme de Hitchcock Vertigo, que se passou em San Francisco. No total, a equipe identificou milhões de recursos – uma espécie de Pedra de Roseta para decodificar a rede neural de Claude.”

Deve-se notar que a Anthropic, como outras empresas com fins lucrativos, pode ter certas motivações comerciais para escrever e publicar sua pesquisa da maneira como fez. Dito isso, o artigo da equipe é público, o que significa que você pode lê-lo por si mesmo e tirar suas próprias conclusões sobre suas descobertas e metodologias.