COMPARTILHAR

Ninguém, indivíduo ou grupo econômico, renuncia ao poder. No mercado não se renuncia a ganhar dinheiro, sobretudo se for muito dinheiro. O caso da inteligência artificial tem a ver com isto.

Por que, depois de demitido da OpenAI (criadora do chatbot ChatGPT), Samuel Harris Altman, prodígio de 38 anos, foi imediatamente recontratado?

Porque, se não fosse, a OpenAI perderia força no “mercado” (não é preciso figurar na bolsa para estar no mercado) e Sam Altman iria para a Microsoft, levando as melhores cabeças da empresa. Aliás, quase todos os mais de 700 funcionários queriam acompanhá-lo. E a empresa criada por Bill Gates decidira que iria contratá-los.

Diz-se que, ao menos no início, a OpenAI não tinha como objetivo enriquecer seus fundadores e colaboradores. Lorota pura. Uma empresa com quase 800 funcionários, que atrai investidores com ações na bolsa, como a Microsoft, não tem como atuar sem fins lucrativos.

Fala-se que a crise entre Sam Altman e integrantes da OpenAI tem a ver com a questão ética.

Em tese seria assim: Sam Altman e seu grupo quer acelerar a questão da inteligência artificial. Fala-se, agora, em superinteligência artificial. No futuro, dos mais breves, a AI estará fazendo coisas, e supostamente de maneira independente, superiores àquilo que o cérebro humano faz.

A autonomia da AI, digamos assim, “choca” cientistas — alguns deles com conselho na OpenAI. Mas “chocar” não é o mesmo que sugerir que são “contra. Porque quem é do meio, e até mesmo quem não é, sabe que a inteligência artificial veio para ficar, se firmar e avançar. É incontornável. Quem ficar contra será atropelado, de maneira inapelável.

Cientistas falam em questões éticas, com razão. Um exército de homens-robôs, entrando na Faixa de Gaza, seria pior que as forças humanas (de perto ou de longe) que estão atuando lá hoje? Por certo. Porque as perdas de máquinas, apesar do prejuízo financeiro, não chocam ninguém — o que tende a elevar o grau de violência.  E mais: há a questão dos empregos — que serão “tomados” e não “devolvidos” para milhares de pessoas. Novos empregos serão gerados? Sim. Mas em quantidade suficiente para não gerar desemprego em massa? Não se sabe.

Os cientistas da OpenAI estão realmente preocupados com a sociedade ou com o negócio em si (fala-se que a OpenAI poderá se tornar um big tech, em breve, similar ao Google, ao Facebook e à Microsoft)? Pode ser que a questão ética mobilize alguns, mas acredito que, no geral, os integrantes da direção da OpenAI, os que querem menos pressa e mais cautela, estão de olho num possível desgaste da geradora de inteligência artificial.

Empresas, com ou sem fins lucrativos, não definem ética para a sociedade. O que elas definem são novos modelos de conduta, levando os indivíduos para os rumos que querem, manietando-os de maneira tão absurda quanto formidável. As redes sociais “controlam” as pessoas, levam-nas para um mundo paralelo e elas acreditam que são “sujeitos” de alguma coisa.

A ética, se realmente puder ser definida, terá de ser pelo Estado, e não pela iniciativa privada, pelo mercado. Os agentes do Estado — praticamente “não” têm como controlar as ações da big techs — precisam ao menos tentar formular mecanismos, com o apoio dos poderes criativos das universidades, notadamente das públicas, para proteger os indivíduos daquilo que eles próprios não querem ser protegidos. Em termos de tecnologia, caminhamos, de maneira ordeira e passiva, para o “matadouro” comercial e mental das empresas. Somos servos voluntários dos grupos tecnológicos. Karl Marx, que tratou da mais-valia absoluta e da mais-valia relativa, certamente ficaria enlouquecido ao perceber como o novo capitalismo criou um modelo quase totalitário — mas consentido — com o objetivo de controlar as mentes de homens e mulheres. Consumimos por necessidade ou pelo prazer, induzido, de consumir? O capitalismo impôs sua ética: o que é supérfluo é cada vez mais necessário.

Então, se as empresas querem ganhar mais dinheiro, com a gestação de mais big techs, chega a ser uma  bobagem acreditar que o grande debate, o verdadeiro debate, na OpenAI, é sobre desacelerar a superinteligência artificial. No fundo, o que se costura — com uma ou outra voz dissidente (o apoio a Sam Altman mostra que a divergência na empresa é mínima) — é uma maneira de evitar que o Estado crie medidas reguladoras que possam atrapalhar a expansão da AI, o que, dependendo da ação, pode retardar pesquisas e, consequentemente, reduzir os lucros (astronômicos, por sinal).

Então, a inteligência artificial é incontornável e ninguém, a rigor, está desacelerando coisa alguma — e o mercado não está minimamente preocupado com ética. No fundo, neste campo, ninguém quer ficar para trás — o Google, uma big tech, ficou para trás, mas vai lutar para se aproximar de quem está adiante. Porque senão, se não morrer, no longo prazo, verá suas ações despencarem (não agora, é claro).

Em suma, ética, no caso de quem está criando inteligência artificial, é papo para enganar inocentes, inclusive gente do meio acadêmico. O que sabemos da produção de inteligência artificial na China e na Rússia — dois países sobre os quais o mundo, com seus Estados nacionais, não tem controle algum?

Quando ouço a palavra ética, se dita pela turma da inteligência artificial — sobretudo por aqueles que falam que não têm fins lucrativos —, fico vermelho, corado de vergonha. Não por mim, e sim por tal turma e pelos que acreditam no que ela está falando.

A alta tecnologia nos transformou em bobos da corte. Com a diferença de que os bobos podiam dizer, quem sabe, verdades ao rei. Nós só repetimos aquilo que os criadores tecnológicos dizem. E, claro, compramos o que produzem. Há saída? Não. Pois eu e os demais indivíduos não queremos virar ermitões. Não há espaço para apocalípticos verdadeiros, porque logo serão escanteados e apontados como homens das cavernas. Mas os homens do e de Estado têm o dever de impor barreiras e de pensar na questão ética e social.