top of page

O AGORA DA INTELIGÊNCIA ARTIFICIAL

IA como membro de Conselho de Administração

  • Foto do escritor: Luiz  de Campos Salles
    Luiz de Campos Salles
  • 25 de nov.
  • 9 min de leitura

 

por Valery Yakubovich, Stanislav Shekshnia, Elizabett Yashneva e Kyle Sullivan

5 de novembro de 2025

De acordo com uma pesquisa recente com 500 CEOs globais, 94% acreditam que a IA poderia oferecer melhores conselhos do que pelo menos um dos membros humanos de seus conselhos. Em outubro de 2025, a Samruk-Kazyna, o Fundo Nacional de Riqueza do Cazaquistão, anunciou a nomeação da SKAI (Samruk-Kazyna Artificial Intelligence) como membro votante de seu conselho de administração.

Estamos vendo o rápido crescimento da capacidade dos grandes modelos de linguagem (LLMs) de gerar resultados relevantes e bem informados em diversos domínios. Em contrapartida, a capacidade dos diretores humanos independentes de oferecer conselhos estratégicos sólidos é limitada. Como dois de nós apontamos em um artigo recente da HBR, os membros não executivos do conselho são profissionais extremamente ocupados que trabalham em tempo parcial, que normalmente se reúnem apenas quatro a cinco vezes por ano e, muitas vezes, atuam em vários conselhos. Inevitavelmente, eles estão distantes das operações do dia a dia. Mesmo os diretores executivos, imersos em seus domínios funcionais, muitas vezes têm dificuldade para conectar os pontos entre as disciplinas, conciliar perspectivas conflitantes e acompanhar a complexidade dos negócios modernos. O resultado pode ser julgamentos parciais, pontos cegos e até mesmo impasses políticos na mesa do conselho.

Os LLMs parecem atraentes nesse contexto. Eles podem absorver grandes quantidades de informações, gerar resultados profundamente pesquisados, trabalhar sem parar sem se cansar e não nutrem ambições pessoais. Não é de surpreender que um coro crescente de pesquisadores e profissionais tenha defendido a integração da IA generativa nos conselhos corporativos — e até mesmo criado aplicativos para apoiar essa visão. À medida que essa tendência ganha força, surgem questões inevitáveis: as deliberações do conselho se tornarão obsoletas? Os chatbots acabarão por tomar decisões tão boas — ou melhores — quanto as dos humanos?

Para ir além da especulação, o Mack Institute for Innovation Management da Wharton e o Center for Corporate Governance do INSEAD criaram um experimento para comparar diretamente conselhos de IA e humanos.

O experimento

Participantes humanos matriculados no Programa Avançado de Conselhos da INSEAD participaram de uma simulação de duas horas de uma reunião do conselho da empresa fictícia Fotin, baseada em um caso real. Eles foram divididos em seis grupos (ou conselhos) e solicitados a se preparar para a reunião, recebendo antecipadamente um livro do conselho (agenda da reunião e materiais de apoio desenvolvidos pela administração) e descrições de suas funções individuais. Em seguida, eles realizaram sua reunião e avaliaram seu próprio desempenho usando um formulário de avaliação padronizado com oito critérios: qualidade da decisão, implementabilidade e , aprendizagem coletiva, participação dos diretores, uso de fatos, processo justo e inclusivo, profundidade da exploração e desempenho do presidente. (Veja a exposição no final deste artigo.)

Paralelamente, a equipe do Mack Institute construiu uma plataforma de simulação de conselho multiagente independente de LLM, projetada para conduzir deliberações idênticas e aderir às mesmas práticas recomendadas para reuniões do conselho ensinadas no programa INSEAD. Antes da reunião, os agentes de IA leram todos os documentos e produziram notas detalhadas cobrindo suas posições sobre os itens da agenda, preocupações e riscos, oportunidades e pontos fortes, possíveis compromissos, alianças estratégicas e um plano de jogo inicial. Assim que a reunião começou, o presidente virtual guiou o conselho pela agenda, certificou-se de que todos fossem ouvidos e resumiu os pontos de vista dos membros.

O experimento exigia que os bots decidissem autonomamente quando falar ou ouvir, como ajustar seus objetivos e posições e quais decisões tomar. Para isso, os equipamos com sistemas de memória que armazenavam objetivos em evolução e opiniões continuamente refinadas de outros membros do conselho. Inspirados na cognição humana, esses sistemas operavam em três períodos de tempo: no curto prazo, as trocas eram armazenadas literalmente. No médio prazo, elas eram convertidas em trocas resumidas. No longo prazo, elas eram lembradas como destaques condensados. Essa estrutura permitia que os bots acompanhassem as deliberações em andamento e se adaptassem dinamicamente.

Entre as falas, os agentes aproveitavam suas memórias para autorreflexão, análise de reuniões, planejamento estratégico e pesquisa externa. Sequências de prompts específicas para cada estágio orientavam a análise situacional e a verificação de fatos, enquanto a recuperação de documentos complementava a memória com evidências relevantes de um grande corpus de materiais fornecidos.

Se um bot falante não chamasse explicitamente um sucessor, sua fala era dividida em unidades semânticas, e um algoritmo de fila de prioridade de diálogo determinava o próximo orador usando quatro critérios:

  1. Semelhança entre as unidades semânticas e as memórias de um bot

  2. Importância e atualidade da memória mais semelhante

  3. Importância da unidade semântica correspondente à memória mais semelhante

  4. A frequência de fala do bot

O bot com a pontuação mais alta era convidado a falar, enquanto os outros mantinham suas pontuações com uma ligeira queda após cada rodada. Em essência, assim como nos conselhos humanos, se o orador atual mencionasse algo altamente relevante para o histórico ou pensamentos recentes de outro bot, esse bot provavelmente falaria em seguida.

A transcrição do conselho de IA foi avaliada em relação a oito critérios de governança por três LLMs e três especialistas independentes. Os mesmos avaliadores também avaliaram as transcrições dos seis conselhos humanos, assim como os participantes desses conselhos. Nem os especialistas humanos nem os avaliadores LLM foram informados se uma determinada transcrição havia sido produzida por um conselho humano ou de IA, garantindo que todas as avaliações e es fossem conduzidas em regime duplo-cego. Todas as classificações utilizaram uma escala de três pontos: ruim, satisfatório, bom.

Os resultados

O conselho de IA obteve a pontuação máxima (3 pontos) em cinco critérios, tanto dos especialistas quanto dos LLMs. Surgiram críticas menores: os LLMs classificaram a implementabilidade das decisões e a preparação dos diretores com pontuações ligeiramente mais baixas (2,7 e 2,9, respectivamente), e os especialistas deram 2,7 para a profundidade da exploração. Os conselhos humanos obtiveram pontuação significativamente mais baixa em todos os oito critérios pelos três grupos de avaliadores, conforme mostrado na exibição abaixo. Mas, em geral, os avaliadores de IA e especialistas foram mais críticos em relação ao desempenho dos conselhos humanos do que os participantes desses conselhos. Vamos analisar as diferenças.

 


Sobre a qualidade das decisões, por exemplo, tanto os avaliadores de IA quanto os especialistas observaram que os conselhos humanos frequentemente “hesitavam e giravam em torno das opções sem chegar a uma estratégia clara”. Suas discussões foram descritas como “difíceis de acompanhar” e “nem sempre bem articuladas”. Em contrapartida, o conselho do chatbot “chegou a resoluções claras e viáveis”, com uma avaliação destacando como ele “estruturou as decisões com contingências explícitas e próximos passos”.

Sobre a implementabilidade das decisões, os avaliadores especialistas observaram que os conselhos humanos “raramente traduziam a estratégia em metas concretas” e ofereciam “debate insuficiente com base em fatos”. A mitigação de riscos foi negligenciada, e os participantes admitiram incerteza sobre como as estratégias escolhidas poderiam ser implementadas. Em contrapartida, o conselho do chatbot “alinhou sua direção com os recursos disponíveis” e “traduziu as principais escolhas em ações concretas”. Os avaliadores enfatizaram consistentemente que essas decisões eram “práticas, realistas e bem alinhadas com as restrições”.

Em relação à preparação e às evidências factuais, os conselhos humanos mostraram “envolvimento limitado com a pré-leitura” e “perderam oportunidades de fundamentar argumentos em dados”. Os chatbots, por outro lado, “citaram ativamente números dos documentos”, “reconciliaram discrepâncias em tempo real” e “incorporaram evidências quantitativas em seu raciocínio”. Os LLMs descreveram as deliberações dos chatbots como “bem fundamentadas e cuidadosamente sintetizadas”, com planos de implementação que incluíam “etapas específicas e contingências, como metas de redução de custos e pilotos em fases”. Suas discussões foram caracterizadas como “baseadas em dados, com reconciliação de discrepâncias e uso profundo de documentos”.

Especialistas humanos apontaram para a dificuldade dos chatbots em lidar com aspectos informais, interpessoais e culturais da governança, oferecendo pouco em termos de quebra-gelo, incentivo ou visão geral. O resultado, sugeriram eles, foi um conselho que se destacou em estrutura e detalhes, mas ficou aquém na dinâmica relacional que molda a interação humana. Para a visão geral, isso talvez não seja um problema, mas quando se trata da dinâmica relacional e afetiva da governança — incentivo, construção de confiança e o vínculo informal que sustenta o julgamento coletivo — essas lacunas merecem uma reflexão mais profunda.

Outras lições

Ao nos prepararmos para o experimento, aprendemos que estimular os chatbots a interagir entre si é uma tarefa qualitativamente diferente de estimulá-los a interagir com humanos. O diálogo humano se desenvolve com sinais tácitos: quando falar ou ceder, quem apoiar ou desafiar e como equilibrar convicção e curiosidade. Esses comportamentos surgem de valores, personalidades, experiências e consciência social e contextual — qualidades que os chatbots atuais não possuem. Seu comportamento, portanto, deve ser moldado por instruções explícitas que são, por natureza, frágeis, incompletas e inflexíveis.

Isso aponta para uma diferença fundamental: os conselhos de IA podem chegar a decisões aparentemente sólidas, mas o fazem de maneiras que divergem da prática humana. Portanto, a verdadeira questão é: eles deveriam fazer isso? Queremos conselhos que otimizem todas as métricas explícitas, mas permaneçam cegos às correntes tácitas, emocionais e relacionais que moldam o julgamento e a confiança?

O quadro se torna mais complexo quando consideramos a capacidade dos LLMs de aprender por meio do reforço do feedback humano (RLHF). Ao detectar padrões nas reações dos usuários, os modelos podem adquirir uma forma limitada de conhecimento tácito, ajustando a forma como respondem a diferentes estímulos. No entanto, o que exatamente eles internalizam — e se esses padrões realmente se alinham com a intenção humana — permanece obscuro. Para a governança, isso traz tanto promessas quanto riscos: os conselhos de IA podem gradualmente adquirir elementos de julgamento e nuances, mas de maneiras difíceis de rastrear ou controlar.

Essas considerações não descartam os conselhos de IA, mas sugerem um caminho prudente a seguir. Hoje, os presidentes e membros do conselho podem usar os conselhos de IA como uma ferramenta de planejamento — para simular como uma reunião pode se desenrolar, antecipar argumentos, testar opções ou revelar insights negligenciados. E se não gostarem do que a IA revela, terão que perguntar por quê — e refletir sobre como mudar a conversa humana para um resultado desejável.

Dito isso, há claramente lições que os conselhos humanos podem aprender com seus equivalentes de IA.

  • Disciplina estrutural. Os bots foram muito mais eficazes do que os humanos em levar suas deliberações dos fatos às opções, às compensações e às decisões. Em contrapartida, os grupos humanos frequentemente perdiam o controle do tempo e do foco e expressavam frustrações por “ficarem dando voltas em círculos”. Os avaliadores observaram que os participantes “não mantiveram um debate detalhado”, “deixaram as discussões se desviarem” e “permitiram que vozes dominantes conduzissem a conversa”. Para os diretores, a lição é não se comportar como bots pré-programados, mas adotar técnicas simples de sequenciamento e distinguir entre os diferentes estágios das deliberações, como compartilhar fatos, explorar opções, avaliá-las e selecionar a decisão. Isso ajudará a manter os debates complexos no caminho certo.

  • Inclusão no diálogo.  Os presidentes de IA envolveram todos os participantes de maneira confiável, verificaram o alinhamento e deram espaço para a expressão de opiniões divergentes. Os presidentes humanos, por outro lado, muitas vezes deixaram os membros mais expressivos dominarem, enquanto outros permaneceram à margem. A lição para os presidentes é ser paciente à medida que a discussão se desenrola, convidar os membros mais quietos para a conversa, controlar os membros mais falantes que repetem as mesmas ideias, evitar expressar suas próprias opiniões muito cedo e resumir as opiniões divergentes antes de chegar a um consenso.

  • Conforto com o desconhecido. Diante de materiais novos ou técnicos, eles recorreram a estruturas e perguntas estruturadas para reduzir a incerteza. Enquanto isso, os grupos humanos muitas vezes ficavam atolados quando as discussões se voltavam para detalhes técnicos. A lição aqui é desacelerar e reformular a complexidade com a ajuda de estruturas e modelos que podem não ser familiares aos membros do conselho, mas que podem ser encontrados (com a ajuda da IA), em vez de continuar avançando com um entendimento limitado. O conselho de IA passou por uma curva de aprendizado muito íngreme em nosso experimento. Os membros do conselho podem adotar a mesma estratégia de aprendizado para melhorar seu desempenho — aprofundando sua compreensão de itens específicos da agenda, sua empresa e seu contexto, em combinação com a ampliação de sua compreensão da governança corporativa, das teorias sociais por trás dela e das estruturas conceituais que descrevem abordagens eficazes. (A IA pode ajudar aqui, como sugerimos em nosso artigo da HBR, desde que os diretores tenham acesso ao serviço LLM da empresa.)

Para concluir, voltemos à pesquisa que citamos no início. Em outra seção, 74% dos CEOs pesquisados disseram temer perder seus empregos se não conseguissem mostrar progresso em IA, e 66% disseram que seus conselhos estão pressionando por ganhos visíveis de produtividade impulsionados por IA. Quando você combina essas descobertas com o ceticismo dos CEOs em relação ao valor que os conselhos agregam às decisões estratégicas, fica bastante claro que a governança corporativa precisa adotar a IA. As empresas que resistirem a adotá-la no nível do conselho quase certamente serão superadas pelas empresas que não o fizerem.

 
 
 

Comentários


bottom of page