IA, PODER E O VAZIO ÉTICO: UMA LEITURA DE NEXUS
“Agora convocamos uma inteligência inorgânica estranha que pode escapar ao nosso controle e pôr em risco não só nossa espécie, como também inúmeras outras formas de vida.”
NEXUS – página 561.
Após três meses, termino minha leitura de NEXUS, 562 páginas que nos fazem refletir sobre Inteligências Artificiais.
Atualmente a IA tem-me sido muito útil e prazerosa, porque encontrei um parceiro que a domina, Hilton Figueredo, e que tem musicado muitos dos meus poemas, que tenho publicado no meu Canal no YouTube.
Mas também é assustadora.
No livro NEXUS, Yuval Noah Harari parte de uma ideia-chave que atravessa toda a obra: o poder humano não nasce apenas da força ou da tecnologia, mas da capacidade de criar, sustentar e controlar redes de informação — os nexus que conectam pessoas, crenças, instituições e máquinas ao longo da história.
Harari mostra que, desde os mitos religiosos até os algoritmos de inteligência artificial, a humanidade sempre viveu imersa em sistemas narrativos que organizam o mundo e dão sentido às ações coletivas. A novidade do nosso tempo é que esses sistemas deixaram de ser exclusivamente humanos: pela primeira vez, delegamos a máquinas a produção, a filtragem e a amplificação de narrativas.
O livro alerta que a inteligência artificial não é apenas uma ferramenta neutra, mas um novo ator histórico, capaz de moldar percepções, decisões políticas, relações sociais e até a própria ideia de verdade. O risco central, segundo Harari, não é a rebelião das máquinas, mas a perda do controle humano sobre os fluxos de informação que sustentam a democracia, a ética e a autonomia individual.
Assim, NEXUS é menos um livro sobre tecnologia e mais um convite à responsabilidade: compreender como os laços invisíveis da informação nos governam — e decidir, conscientemente, quem deve conduzir esses nexos no futuro: os humanos ou os algoritmos.
Em sendo assim, a pergunta não é se a Inteligência Artificial é boa ou má: essa é uma falsa questão.
A pergunta real é: quem responde moralmente pelo que ela faz?
Em NEXUS, Yuval Noah Harari nos conduz a uma reflexão menos visível, porém mais profunda: vivemos em uma era em que o poder não está mais concentrado apenas em pessoas ou instituições, mas em redes de conexão — sistemas que ligam dados, decisões e consequências em velocidade superior à capacidade humana de reflexão.
O nexus não é um lugar: É um entrelaçamento.
A Inteligência Artificial surge nesse contexto não como protagonista, mas como catalisadora. Ela acelera processos, amplia escalas e automatiza decisões. O problema começa quando essa eficiência passa a operar sem um centro ético identificável.
Harari alerta para algo sutil e perigoso: à medida que os sistemas se tornam mais complexos, a responsabilidade se dilui. Quando uma decisão injusta ocorre, ninguém se reconhece como autor.
O algoritmo “apenas seguiu dados”, o programador “apenas escreveu código”, a instituição “apenas aplicou o sistema”. O erro, então, não tem rosto. Nem culpa. Nem correção.
É nesse ponto que a ausência de um poder moderador externo se torna crítica.
A IA não possui consciência moral. Não distingue justiça de eficiência, dignidade de lucro, verdade de conveniência. Ela otimiza objetivos. Se os objetivos forem mal definidos — ou se forem definidos apenas por critérios econômicos e políticos — o sistema funcionará perfeitamente… contra o humano.
Em NEXUS, o risco maior não é a dominação da máquina, mas a normalização do automatismo. Decisões sobre crédito, segurança, educação, saúde e informação passam a ser tomadas por sistemas opacos, muitas vezes inalcançáveis ao questionamento público. O nexus deixa de ser ponte e passa a ser destino.
Sem controle externo, cria-se o que poderíamos chamar de nexus fechado: sistemas que aprendem com seus próprios resultados, se corrigem internamente e se legitimam apenas pela eficiência. Nesse cenário, o erro deixa de ser exceção e passa a ser padrão estatístico. O injusto se torna “normal”.
O controle necessário, porém, não é autoritário nem centralizador. Não se trata de censura tecnológica, mas de vigilância ética distribuída: marcos legais claros, auditorias transparentes, limites técnicos e, sobretudo, uma sociedade educada para compreender e questionar os sistemas que a governam silenciosamente.
Aqui, a Educação assume papel decisivo. Harari sugere alfabetização digital; é preciso ir além. Sem formação crítica, a IA não liberta — acomoda.
Sem sujeitos conscientes, a tecnologia governa pela conveniência, não pela justiça.
NEXUS nos lembra que o maior perigo do nosso tempo não é a inteligência das máquinas, mas a demissão moral dos humanos. Quando terceirizamos decisões sem preservar responsabilidade, abrimos mão daquilo que nos define como espécie ética.
A Inteligência Artificial precisa de controle externo não porque seja maligna, mas porque é indiferente. E a indiferença, quando amplificada por sistemas globais, pode ser mais perigosa do que a intenção deliberada.
No fim, Harari nos entrega um aviso silencioso:
O problema não é a máquina pensar: é o humano parar de pensar porque a máquina conecta tudo por ele.
ANTONIO CARLOS TÓRTORO
Ex-presidente da ARL_ academia Ribeirãopretana de Letras
www.tortoro.com.br
[email protected]
