Xi Jinping é um pessimista em relação à IA?
- Luiz de Campos Salles

- 29 de ago. de 2024
- 4 min de leitura
Atualizado: 3 de mai.

Autoria: revista THE ECONOMIST de 28/8/24.Tradução chat GPT 4o corrigida por LCS.
Xi Jinping é um pessimista em relação à IA?
A elite chinesa está dividida sobre a inteligência artificial.
No ano passado, em julho, Henry Kissinger viajou a Pequim pela última vez antes de sua morte. Entre as mensagens que ele entregou ao governante da China, Xi Jinping, estava uma advertência sobre os riscos catastróficos da inteligência artificial (IA).
Desde então, “manda chuvas” da tecnologia americana e ex-funcionários do governo americano se reuniram discretamente com seus colegas chineses em uma série de encontros informais apelidados de Diálogos Kissinger. As conversas focaram, em parte, em como proteger o mundo dos perigos da IA.
Em 27 de agosto, espera-se que autoridades americanas e chinesas abordem o assunto (junto com muitos outros) quando o conselheiro de segurança nacional dos EUA, Jake Sullivan, viajar a Pequim.
Muitos no mundo da tecnologia acreditam que a IA igualará ou superará as habilidades cognitivas dos humanos.
Alguns desenvolvedores preveem que os modelos de inteligência artificial geral (AGI) um dia serão capazes de aprender por conta própria, o que poderia torná-los incontroláveis.
Aqueles que acreditam que, se não for controlada, a IA representa um risco existencial para a humanidade são chamados de “doomers”. Eles tendem a defender regulamentações mais rígidas.
Do outro lado estão os “aceleracionistas”, que destacam o potencial da IA para beneficiar a humanidade.
Os aceleracionistas ocidentais argumentam frequentemente que a competição com desenvolvedores chineses, que não são inibidos por fortes salvaguardas, é tão intensa que o Ocidente não pode se dar ao luxo de desacelerar.
A implicação é que o debate na China é unilateral, com os aceleracionistas tendo mais influência sobre o ambiente regulatório. Na verdade, a China tem seus próprios “doomers” da IA—e eles são cada vez mais influentes.
Até recentemente, os reguladores chineses focavam no risco de chatbots descontrolados dizerem coisas politicamente incorretas sobre o Partido Comunista, em vez de se preocuparem com modelos de ponta escapando ao controle humano.
Em 2023, o governo exigiu que os desenvolvedores registrassem seus grandes modelos de linguagem. Os algoritmos são regularmente avaliados com base em como eles cumprem os valores socialistas e se poderiam “subverter o poder do estado”. As regras também visam prevenir discriminação e vazamentos de dados de clientes.
Mas, em geral, as regulament ações de segurança da IA são leves. Algumas das restrições mais onerosas da China foram rescindidas no ano passado.
Os aceleracionistas chineses querem manter as coisas assim. Zhu Songchun, um conselheiro do partido e diretor de um programa estatal para desenvolver AGI, argumentou que o desenvolvimento da IA é tão importante quanto o projeto "Duas Bombas, Um Satélite", um esforço da era Mao para produzir armas nucleares de longo alcance.
No início deste ano, Yin Hejun, o ministro da ciência e tecnologia, usou um antigo slogan do partido para pressionar por um progresso mais rápido, escrevendo que o desenvolvimento, incluindo no campo da IA, era a maior fonte de segurança da China. Alguns formuladores de políticas econômicas alertam que uma busca excessiva por segurança prejudicará a competitividade da China.
Mas os aceleracionistas estão enfrentando resistência de uma clique de cientistas de elite que têm a atenção do Partido Comunista. O mais proeminente entre eles é Andrew Chi-Chih Yao, a única pessoa chinesa a ter vencido o prêmio Turing por avanços na ciência da computação. Em julho, Yao disse que a IA representa um risco existencial maior para os humanos do que armas nucleares ou biológicas.
Zhang Ya-Qin, o ex-presidente da gigante tecnológica chinesa Baidu, e Xue Lan, presidente do comitê estatal de especialistas em governança de IA, também acham que a IA pode ameaçar a raça humana. Yi Zeng, da Academia Chinesa de Ciências, acredita que os modelos AGI eventualmente verão os humanos como os humanos veem as formigas.
A influência de tais argumentos está se tornando cada vez mais evidente. Em março, um painel internacional de especialistas reunido em Pequim pediu aos pesquisadores que eliminassem modelos que parecessem buscar poder ou mostrassem indícios de autorreplicação ou engano. Pouco tempo depois, os riscos representados pela IA e como controlá-los tornaram-se assunto de sessões de estudo para líderes do partido. Um órgão estatal que financia a pesquisa científica começou a oferecer subsídios a pesquisadores que estudam como alinhar a IA com os valores humanos.
Laboratórios estatais estão fazendo trabalhos cada vez mais avançados nessa área. Empresas privadas têm sido menos ativas, mas algumas delas ao menos começaram a reconhecer os riscos da IA.
O debate sobre como abordar a tecnologia resultou em uma disputa entre os reguladores da China. O Ministério da Indústria do país destacou preocupações com a segurança, instando os pesquisadores a testarem modelos quanto a ameaças aos humanos.
Mas a maioria dos “securocratas” chineses vê o atraso em relação aos Estados Unidos como um risco maior. O Ministério da Ciência e os planejadores econômicos estaduais também favorecem um desenvolvimento mais rápido. Uma lei nacional sobre IA planejada para este ano foi silenciosamente removida da agenda de trabalho do governo nos últimos meses devido a esses desacordos. O impasse ficou claro em 11 de julho, quando o funcionário do governo responsável pela redação da lei sobre IA alertou contra priorizar a segurança ou a rapidez.
A decisão final caberá ao que Xi Jinping decidir. Em junho, ele enviou uma carta para Andrew Chi-Chih Yao, elogiando seu trabalho sobre IA.
Em julho, na reunião do comitê central do partido chamada de “terceiro plenário”, Xi Jinping enviou seu sinal mais claro de que leva a sério as preocupações dos "doomers". O relatório oficial do plenum listou os riscos da IA ao lado de outras grandes preocupações, como perigos biológicos e desastres naturais. Pela primeira vez, o relatório pediu o monitoramento da segurança da IA, uma referência ao potencial da tecnologia de colocar em risco os humanos. O relatório pode levar a novas restrições às atividades de pesquisa sobre IA.
Mais indícios sobre o pensamento de Xi são encontrados no guia de estudo preparado para os quadros do partido, que ele teria editado pessoalmente. A China deve “abandonar o crescimento desenfreado que vem ao custo de sacrificar a segurança”, diz o guia.
Como a IA determinará “o destino de toda a humanidade”, ela deve sempre ser controlável, continua.
O documento pede que a regulamentação seja preventiva em vez de reativa.
Comentários