Os perigos e ameaças das inteligências artificiais ao nosso futuro

Pouquíssimos assuntos conseguiram atrair os holofotes por tanto tempo e de tantas pessoas dos mais diversos segmentos, como tem sido quando tem relação com inteligência artificial, ou apenas IA, para os “íntimos”.

De abordagens que tratam com espanto e surpresa tudo o que elas são capazes, passando pelas que tentam projetar os próximos avanços e culminando com os benefícios que a humanidade terá. Mas há também as que tratam de esclarecer tudo o que há por trás, das curiosidades e da história a respeito. Como existem também listas intermináveis de serviços baseadas nelas e como as empresas estão se mobilizando para terem as suas próprias soluções.

Tudo muito curioso, interessante e tem consumido nossa atenção em torno do tema.

É só colocar a palavra-chave composta “inteligência artificial” em um site de busca qualquer e a enxurrada de conteúdos sobre, aparecerá. Isso se você não quiser testar por conta própria e comprovar do que são capazes.

Mas o que nos traz aqui hoje, é o que muitos também tratam, que são os perigos e o que não se conhece muito bem das IA’s, mas que pode ser decisivo em um futuro bem próximo!

Inteligências artificiais são perigosas?

No cinema, é frequente ver inteligências artificiais como “vilãs”, mas no atual estágio de desenvolvimento no qual a maioria está, ainda é prematuro e pode até existir algum exagero afirmar que uma IA qualquer, seja ela própria uma ameaça.

Se não está claro o que queremos dizer com isso, pense em uma faca.

Ela pode ter função essencial como utensílio de cozinha, como instrumento à mesa, como ferramenta para diferentes usos em alguns casos, mas também serve como arma e tirar uma vida.

Mas a faca propriamente, é apenas um objeto. O uso que se faz dela é que determinará se o resultado final é positivo ou negativo. Se é seguro e há benefício ou se há risco e perda.

Ou seja, por enquanto as IAs são como as facas e, portanto, apenas instrumentos.

Nesse ponto, muita gente deve questionar então por qual razão se fala em perigo ou riscos, especialmente por parte de muitos especialistas no assunto.

Há uma série de razões justificáveis para preocuparmo-nos e a primeira delas consiste em compreendermos os estágios de uma IA.

Os 3 estágios da inteligência artificial

Genericamente é comum definir que uma IA pode ser classificada em 3 estágios:

  • Inteligência Artificial Estreita (ANI ou Artificial Narrow Intelligence);

  • Inteligência Artificial Geral (AGI ou Artificial General Intelligence);

  • Superinteligência Artificial (ASI ou Artificial Super Intelligence).

O primeiro estágio é que se enquadra a grande maioria dos modelos que temos visto, incluindo os Assistentes Virtuais Inteligentes, como a Siri e a Alexa, ou mesmo a atual “celebridade” na área, o ChatGPT.

Sim, apesar dos muitos “talentos” que o ChatGPT vem demonstrando, os especialistas o classificam nesse estágio e que é assim designado porque se concentra estritamente em uma única tarefa, ainda que a realize com elevadíssimo nível de desempenho e tenha demonstrado algumas habilidades adicionais.

Uma IA em estágio ANI, ainda que tenha sido treinada usando um grande conjunto de dados, como os inúmeros dados da Internet no caso do ChatGPT, só é capaz de tomar decisões ou realizar ações com base nesse treinamento.

Já no caso de uma AGI, é o estágio no qual a inteligência artificial é dotada de um sistema cognitivo no mesmo nível humano, ou se preferir, tem um processo de aprendizado e desempenho intelectual similar ao das pessoas.

Em Abril de 2023, James Maneka, chefe da divisão de IA do Google, declarou que um dos sistemas da empresa conseguiu aprender um novo idioma sozinho, o bengali, que é a língua oficial de Bangladesh.

Ou seja, em sendo verdadeira a afirmação, já há modelos no estágio AGI.

Por fim, no último estágio, quando tivermos máquinas com capacidade ASI, a inteligência sintética supera a humana.

Em outras palavras, uma IA do terceiro estágio, é dotada de intelecto superior às mentes mais brilhantes, mais criativas, com maior saber científico e conhecimentos gerais, além de habilidades sociais, uma vez que serão capazes de ter acesso ao acervo de Maquiavel e Platão e quaisquer outros filósofos / pensadores que você conseguir se lembrar, como das redes sociais e de tudo o mais que estiver online!

Aliás, os algoritmos das redes sociais vêm sendo exaustivamente desenvolvidos com esse objetivo, que é compreender tão bem quanto possível as interações sociais.

Esse último estágio e que segundo alguns pesquisadores, não está longe de ser alcançado, é o que produz as maiores preocupações.

Nesse ponto, o homem terá inventado algo que substitui aquilo que sempre o distinguiu dos demais animais e que ele tem usado a seu favor. Será que a partir de então, estaremos na mesma condição dos demais animais?

Poder computacional

O poder computacional e que é a capacidade de colher e analisar dados e partir desse processamento produzir saídas ou respostas, é cada vez maior e acessível.

Foi por muito tempo o fator limitador ou o gargalo para o desenvolvimento das inteligências artificiais.

Diz-se que sistemas como o ChatGPT, são grandes consumidores dessa capacidade computacional, mas que ultimamente está cada vez mais disponível.

Recentemente a Nvidia, marca célebre entre o público gamer, lançou o H100, um chip capaz de garantir uma supervelocidade nas tarefas da IA generativa, superando a Intel e a AMD, em processadores capazes de entregarem o tão desejado poder computacional.

Isso graças ao know-how adquirido pela empresa ao longo dos anos desenvolvendo tecnologia que é voltada a realização de volumes imensos de cálculos e com elevada velocidade. São chips mais “especializados” do que os produzidos pela Intel e AMD, os quais precisam ser “habilidosos” em vários tipos de tarefas diferentes.

A Nvidia até já desenvolveu linguagem destinada a essa finalidade para ser usada com essa arquitetura de processadores – a Cuda-X.

Soma-se a tudo isso, a infraestrutura que as principais big techs já têm, seja de data centers, de servidores, de grandes volumes de dados (big data), de redes e o que mais for necessário.

Se diante desse panorama real, já é preocupante, o que será quando a computação quântica for mais factível? Haverá limite de aprendizado e desenvolvimento para um sistema ASI rodando em um computador quântico?

Limites éticos das IAs

Em 2020, quando o ChatGPT ou mesmo qualquer outro sistema, ainda não eram conhecidos e não haviam ganhado as manchetes, publicamos um post sobre “Os limites éticos da Inteligência Artificial”.

Se hoje há quem pense serem exageradas as preocupações a respeito, na época pareceu alarmismo de nossa parte.

Mas não é sem razão, afinal a lista de questões associadas é imensa e envolve desde a privacidade das pessoas e consequentemente a sua segurança digital, passando pelas questões ambientais e culminando na desinformação e nas fake news.

E não, não é só isso!

Guardadas as devidas proporções, uma IA é como uma criança, no sentido que ao mesmo tempo que tem enorme capacidade de aprender, ainda não sabe o que é certo e o que é errado, o que é o bem e o mal, o que é perigoso e o que é seguro, entre outras muitas condições humanas.

É possível treinar ou ensinar a uma máquina o que é empatia, solidariedade, honestidade, respeito ao próximo, altruísmo, ou até mesmo fé, como fazemos com a criança?

Na Índia, já foram criados chatbots religiosos que tem sido usados por milhões de pessoas, os quais baseiam-se em tecnologias como o ChatGPT, tendo sido treinados com escrituras hindus e se apresentam como se fossem os próprios deuses interagindo com o usuário.

Naturalmente que o desvio de conduta nesse caso, não é da máquina, mas de quem está por trás dela.

A questão é que LLMs (Large Language Models ou ferramentas grandes de modelo de linguagem) podem gerar e disseminar desinformação altamente convincente na forma de texto, áudio ou vídeo, tornando difícil para quem tem acesso, diferenciar conteúdo falso daquele que é confiável ou verídico.

De qual ou quais fontes de treinamento os dados foram obtidos? É possível conferir valores humanos a uma IA?

Esse tipo de cuidado e indagação, leva-nos a próximo ponto.

Deep e Dark Web

Esse é um ponto que pouquíssima gente tem mencionado, mas nem por isso é menos preocupante. Ao contrário.

Sabe-se – pelo menos oficialmente – que as ferramentas mais populares da atualidade, têm tido acesso no processo de aprendizado / treinamento, conhecido como Deep Learning, apenas aos conteúdos da Web que a maioria das pessoas acessa.

Mas se sabe também que essa Internet tida como “normal” e conhecida pela maioria, representa apenas aproximadamente 5% de tudo que há online e que todo o resto, está na Deep Web e na Dark Web.

Especialmente no caso da Dark Web, há muito conteúdo malicioso, nocivo e cujos propósitos são negativos ou no mínimo, questionáveis.

Da mesma forma que a IA do Google aprendeu bengali sozinha, não pode ela ou outras, acessarem tais conteúdos no seu processo de treinamento / aprendizado? O que essas IAs aprenderiam diante do colossal volume de dados existentes na Web profunda e na Web escura?

É verdade que nem seria preciso esse tipo de acesso, visto que usuários já conseguiram que algumas alternativas de IAs e até o ChatGPT, escrevessem trechos de programação com finalidades maliciosas, mas a partir desse tipo de acesso, a possibilidade e o grau de severidade para produzir ataques cibernéticos, até para um total leigo no assunto, seria real.

Logo, toda classe de crimes virtuais, ganha impulso significativo e os perigos e ameças digitais tendem a proliferar a taxas nunca antes vistas.

Pauta ESG

Para quem não sabe, pauta ou agenda ESG, é quando as instituições são conduzidas com base em princípios ambientais (Environmental), sociais (Social) e de governança corporativa (corporate Governance).

Porém, nesse ponto caminhamos justamente na direção contrária.

Como já mencionamos, o poder computacional exigido pelos maiores sistemas de IA, como o ChatGPT, o Bard do Google e os demais que vêm sendo desenvolvidos por outros gigantes da tecnologia, só é possível em troca de grande consumo de energia elétrica, muita geração de calor e elevados níveis de emissão de CO2. Logo, uma incrível ameaça ao meio ambiente.

Novas tecnologias historicamente impactam a sociedade de muitas formas. E não se trata de apenas mais um capítulo da tecnologia roubando empregos, mas de certamente o maior e mais severo deles.

Há quem argumente que tal como outras tecnologias no passado, a IA também produzirá novas demandas no mercado de trabalho, mas os especialistas apontam que será em quantidade bem inferior aos postos de trabalho que ela extinguirá, além da velocidade com que isso deve acontecer, que será muito maior.

Uma pessoa para se tornar advogado, engenheiro ou linguista e que são algumas das muitas profissões que estão sob real ameaça, precisa dedicar anos de estudo, coisa que uma IA consegue quase de imediato.

Visto de outra forma, toda profissão essencialmente baseada em conhecimento, está sob ameaça.

Completando o acrônimo ESG, a já mencionada ética, mas agora na condução da governança das empresas envolvidas, bem como as motivações por trás, também suscitam discussão.

Na verdadeira batalha que tem sido vista entre as principais empresas do setor, vale tudo e visa satisfazer apenas os ideais capitalistas e consumistas e no final atingir a supremacia econômica e do segmento em que atuam.

Sam Altman, da OpenAI (responsável pelo ChatGPT) e o executivo-chefe do Google, Sundar Pichai, estão entre os líderes de tecnologia que discutiram recentemente a regulamentação da IA com o primeiro-ministro inglês, Rishi Sunak.

Ver isso acontecer, é quase como ver as raposas pedindo ao dono da granja para participarem do processo de melhoria da segurança das aves que são criadas por eles. É irônico e lamentável.

Em paralelo, vemos Elon Musk que foi um dos fundadores da OpenAI, assinando a carta que pede interromper por algum tempo o desenvolvimento das inteligências artificiais e ao mesmo tempo surgem notícias do seu interesse na criação de uma startup que tem o mesmo objetivo, ou seja, ser uma concorrente da empresa que ele tentou comandar.

Monopólios e poder

Há apenas algumas organizações no mundo que têm os recursos exigidos para criar inteligência artificial em larga escala e do começo ao fim. Coincidentemente – e apenas por coincidência – estão as grandes empresas de tecnologia.

Se por um lado pode parecer mais um movimento de democratização do conhecimento, ao abrir o ChatGPT e outras ferramentas similares para todo mundo ou cobrar apenas US$ 20,00 nas versões mais completas / sofisticadas do serviço, consistiu apenas de uma estratégia para consolidar a ditadura das big techs.

Em todos os segmentos de atividade comercial, temos visto anúncios dos maiores grupos, de iniciativas no sentido de investir no desenvolvimento de inteligência artificial.

Está claro que não importa em que área atuem, aqueles que alcançarem tal objetivo primeiro, não apenas superarão seus concorrentes, mas servirá para aumentar seu poder e consolidar monopólios ou na melhor das hipóteses, oligopólios.

Ingenuidade acreditar que na indústria farmacêutica, para citar apenas um exemplo, essa corrida frenética seja apenas para encontrar a cura de uma doença ou novos remédios com menos efeitos colaterais.

Os faturamentos de muitos dígitos do setor, não precisarão mais ser revertidos nos alegados investimentos em pesquisa e desenvolvimento, bem como no lugar de um experiente e premiado profissional de Marketing, antes necessário para as campanhas da empresa, quem sabe uma ASI agora dê conta de tudo sozinha!

Regulação das IAs

É importante salientar, se é que não ficou claro, que não se trata de discutirmos um mundo com ou sem inteligência artificial.

É um caminho sem volta e não podemos e nem devemos abrir mão dos benefícios, afinal não se tira a faca da cozinha apenas porque ele pode provocar ferimentos. Mas tal como na analogia, é preciso tomar certos cuidados.

Nada no mundo está isento de regulação.

Significa dizer que é preciso criar um conjunto de regras e limites. Mais que isso, é preciso controle e supervisão, bem como atribuir responsabilidades e aplicar sanções quando não for cumprido o que for acordado por todos os atores envolvidos.

Também não se trata de uma discussão restrita. Já não é sem tempo que uns poucos que detém o poder econômico estipulem as regras do jogo.

Conclusão

Regulação e limites para o desenvolvimento e aplicação das inteligências artificiais, precisam ser discutidos urgentemente, sob pena de perigos concretos.

Comentários ({{totalComentarios}})