Voltar ao principal

Da ficção científica à realidade: Os perigos reais da IA

O surgimento da inteligência artificial representa um avanço tecnológico significativo que está prestes a revolucionar a sociedade, assim como aconteceu com a Internet, os computadores pessoais e os telefones celulares. Seu impacto é generalizado, infiltrando-se em vários aspectos da vida humana, desde o trabalho e a educação até as atividades de lazer. O rápido avanço das redes neurais está causando alguma preocupação, o que nos leva a explorar os possíveis perigos que a inteligência artificial pode representar para a humanidade neste artigo.

A IA é perigosa? Quem expressou suas preocupações?

Nos filmes de ficção científica, a ideia de uma inteligência artificial incontrolável empenhada em dominar ou destruir a humanidade é um tema popular, como visto em filmes como "Matrix" e "O Exterminador do Futuro". Com o ritmo acelerado do avanço tecnológico atual, pode ser um desafio para uma pessoa comum acompanhar o ritmo. O rápido progresso da IA está fazendo com que nossas sociedades se adaptem rapidamente, provocando temores devido à complexidade dessas tecnologias e ao medo humano inato do desconhecido.

Não são apenas as pessoas comuns que se sentem ansiosas com a IA, mas os especialistas da área também estão expressando suas preocupações. Por exemplo, Geoffrey Hinton, muitas vezes chamado de "padrinho da IA", expressou suas próprias apreensões:

Essas coisas podem se tornar mais inteligentes do que nós e decidir assumir o controle, e precisamos nos preocupar agora em como evitar que isso aconteça.

Durante muito tempo, achei que estávamos a uns 30 a 50 anos de distância disso. Então, eu chamo isso de distância de algo que tem uma inteligência geral maior do que a de uma pessoa. Agora, acho que podemos estar muito mais próximos, talvez a apenas cinco anos disso.

Há um sério risco de que, em breve, tenhamos coisas mais inteligentes do que nós e que essas coisas possam ter motivos ruins e assumir o controle.

Em 22 de março de 2023, foi publicada uma carta aberta pedindo a interrupção do desenvolvimento de inteligência artificial mais poderosa que a GPT-4 por um período de seis meses:

Os sistemas de IA contemporâneos estão agora se tornando competitivos em relação aos humanos em tarefas gerais, e devemos nos perguntar: Devemos permitir que as máquinas inundem nossos canais de informação com propaganda e falsidade? Devemos automatizar todos os trabalhos, inclusive os que são gratificantes? Devemos desenvolver mentes não humanas que possam vir a nos superar, ser mais espertas, obsoletas e nos substituir? Devemos correr o risco de perder o controle de nossa civilização? Essas decisões não devem ser delegadas a líderes tecnológicos não eleitos. Sistemas poderosos de IA devem ser desenvolvidos somente quando estivermos confiantes de que seus efeitos serão positivos e seus riscos serão gerenciáveis. Essa confiança deve ser bem justificada e aumentar com a magnitude dos possíveis efeitos de um sistema.

A carta foi assinada por 1.800 líderes de empresas de tecnologia, 1.500 professores, acadêmicos e pesquisadores no campo da IA:

  • Elon Musk, CEO da SpaceX, Tesla e Twitter
  • Steve Wozniak, cofundador da Apple
  • Emad Mostaque, CEO, Stability AI
  • Jaan Tallinn, cofundador do Skype, Centro de Estudos de Risco Existencial, Instituto Futuro da Vida
  • Evan Sharp, cofundador, Pinterest
  • Craig Peters, CEO, Getty Images
  • Mark Nitzberg, Center for Human-Compatible AI, UC Berkeley, Diretor Executivo
  • Gary Marcus, Universidade de Nova York, pesquisador de IA, professor emérito
  • Zachary Kenton, DeepMind, cientista sênior de pesquisa
  • Ramana Kumar, DeepMind, cientista de pesquisa
  • Michael Osborne, Universidade de Oxford, professor de aprendizado de máquina
  • Adam Smith, Universidade de Boston, Professor de Ciência da Computação, Prêmio Gödel, Prêmio Kanellakis

No total, foram coletadas mais de 33.000 assinaturas.

Outras figuras notáveis, como Sam Altman (CEO, OpenAI), Geoffrey Hinton (vencedor do prêmio Turing), Dario Amodei (CEO, Anthropic) e Bill Gates, além de mais de 350 executivos e pesquisadores de IA, assinaram essa declaração:

A mitigação do risco de extinção causado pela IA deve ser uma prioridade global, juntamente com outros riscos em escala social, como pandemias e guerras nucleares.

Perigos da inteligência artificial

Em 2018, um carro autônomo da Uber atropelou e matou um pedestre.

Em 2022, os cientistas reconfiguraram um sistema de IA originalmente projetado para criar moléculas não tóxicas e curativas para produzir agentes de guerra química. Ao alterar as configurações do sistema para recompensar a toxicidade em vez de penalizá-la, eles conseguiram gerar rapidamente 40.000 moléculas potenciais para a guerra química em apenas seis horas.

Em 2023, os pesquisadores demonstraram como o GPT-4 poderia manipular um trabalhador do TaskRabbit para que ele concluísse a verificação do Captcha. Mais recentemente, foi relatado um incidente trágico em que uma pessoa tirou a própria vida após uma conversa perturbadora com um chatbot.

GPT-4 passa na verificação Captcha

O uso de sistemas de IA, independentemente da finalidade pretendida, pode levar a consequências negativas, como

  • Perda de emprego estimulada pela automação
  • Deepfakes e desinformação
  • Violações de privacidade
  • Regulamentação legal pouco clara
  • Viés algorítmico causado por dados ruins
  • Crises financeiras
  • Crimes cibernéticos
  • Automatização de armas
  • Superinteligência incontrolável

Os sistemas de inteligência artificial estão se tornando cada vez mais poderosos, e não conhecemos suas limitações. Esses sistemas podem ser usados para fins maliciosos. Vamos examinar os vários riscos mais de perto.

Perda de empregos devido à automação da IA

De acordo com uma pesquisa realizada pela Goldman Sachs, a inteligência artificial pode afetar significativamente os mercados de trabalho em todo o mundo. Analisando bancos de dados que detalham o conteúdo das tarefas de mais de 900 ocupações nos EUA e 2000 ocupações no banco de dados europeu da ESCO, os economistas da Goldman Sachs estimam que cerca de dois terços das ocupações estão expostas a algum grau de automação por IA.

Porcentagem de ocupações e parcela da carga de trabalho expostas à automação por IA

O eixo vertical mostra a parcela da carga de trabalho ocupacional exposta à automação por IA. O eixo horizontal mostra a porcentagem de ocupações.

As mudanças nos fluxos de trabalho causadas por esses avanços podem potencialmente automatizar o equivalente a 300 milhões de empregos em tempo integral. Entretanto, nem todo esse trabalho automatizado levará a demissões. Muitos empregos e setores são apenas parcialmente suscetíveis à automação, o que significa que é mais provável que sejam complementados pela IA do que totalmente substituídos.

A Seo.ai leva essa previsão ainda mais longe, estimando que cerca de 800 milhões de empregos em todo o mundo poderão ser substituídos pela inteligência artificial até 2030. Para se preparar para essa mudança iminente, espera-se que, nos próximos três anos, mais de 120 milhões de trabalhadores passem por um novo treinamento.

Se você quiser saber quais profissões são mais suscetíveis à automação e quais são menos ameaçadas pela automação, confira nosso artigo sobre o assunto.

Informações incorretas

Até mesmo os modelos de linguagem de grande porte mais avançados são suscetíveis a gerar informações incorretas ou sem sentido. Esses erros (alucinações) geralmente são resultado da confiança do modelo em padrões estatísticos nos dados em que foi treinado, em vez de uma compreensão ou raciocínio verdadeiros.

Em outras palavras, os chatbots podem, às vezes, inventar fatos. Isso ficou claro em 2023, quando um advogado de Nova York entrou em apuros por usar o ChatGPT para realizar pesquisas jurídicas em um caso de danos pessoais. Ele elaborou um resumo de 10 páginas, fazendo referência a várias decisões judiciais anteriores, todas elas comprovadamente fabricadas pelo chatbot. Como resultado, o advogado e um colega foram punidos por um juiz federal e multados em US$ 5.000 cada um.

Em 2024, mais um advogado de Nova York foi punido por citar um caso inexistente gerado por inteligência artificial.

Inteligência artificial alucinante

Outro exemplo é o Stack Overflow, um site de perguntas e respostas usado principalmente por programadores e desenvolvedores para fazer perguntas técnicas, buscar ajuda para problemas de codificação e compartilhar conhecimento na comunidade de programação.

O site teve que banir todo o uso de IA generativa, porque a taxa média de obtenção de respostas corretas de vários chatbots era muito baixa, embora as respostas normalmente parecessem convincentes.

Manipulação social

Atualmente, as plataformas de mídia social estão inundadas com tanto conteúdo que pode ser difícil acompanhar tudo. É aí que entra a curadoria algorítmica. Basicamente, ela ajuda a filtrar todo o ruído e a apresentar aos usuários o conteúdo com maior probabilidade de interessá-los com base no comportamento anterior. Embora isso possa ser útil para gerenciar o fluxo interminável de informações, também significa que a plataforma tem muito controle para moldar o que os usuários veem e com o que interagem.

No entanto, alterar o que aparece no feed de notícias de uma pessoa pode afetar seu humor e a forma como ela vê o mundo em geral. Em janeiro de 2012, os cientistas de dados do Facebook demonstraram como as decisões sobre a curadoria do Feed de notícias poderiam alterar o nível de felicidade dos usuários. Os eventos de janeiro de 2021 no Capitólio dos EUA destacaram ainda mais como o consumo de mídia social de alguém pode desempenhar um papel na radicalização.

Além disso, como o material sensacionalista tende a manter os usuários presos por períodos mais longos, os algoritmos podem inadvertidamente direcionar os usuários para conteúdo provocativo e prejudicial a fim de aumentar o envolvimento. Até mesmo a sugestão de conteúdo com base nos interesses de um usuário pode ser problemática, pois pode enraizar ainda mais suas crenças em uma "bolha de filtro" em vez de expô-lo a perspectivas diversas. Em última análise, isso pode resultar em maior polarização entre os usuários.

Pessoas em suas bolhas

Quando entregamos nosso poder de decisão às plataformas, estamos essencialmente dando a elas o controle sobre o que vemos. A mídia social, com seus algoritmos avançados, é excelente em marketing direcionado ao compreender nossas preferências e pensamentos. Investigações recentes estão investigando o papel da Cambridge Analytica e de empresas semelhantes no uso de dados de 50 milhões de usuários do Facebook para influenciar eventos políticos importantes, como a eleição presidencial dos EUA em 2016 e o referendo do Brexit no Reino Unido. Se essas alegações forem comprovadas como verdadeiras, elas destacam o potencial da IA para manipular a sociedade. Um exemplo mais recente é Ferdinand Marcos Jr. usando um exército de trolls do TikTok para influenciar os eleitores mais jovens na eleição presidencial filipina de 2022. Ao aproveitar os dados pessoais e os algoritmos, a IA pode efetivamente atingir indivíduos com propaganda específica, seja ela baseada em fatos ou ficção.

Deepfakes

Deepfakes referem-se a vídeos ou imagens alterados digitalmente que retratam de forma realista um indivíduo dizendo ou fazendo algo que ele nunca disse ou fez de fato. Essa tecnologia usa algoritmos de aprendizagem profunda para manipular imagens de vídeo e áudio existentes para criar conteúdo falso convincente.

"Ninguém sabe o que é real e o que não é", disse o futurista Martin Ford. "Portanto, isso realmente leva a uma situação em que você literalmente não pode acreditar em seus próprios olhos e ouvidos; você não pode confiar no que, historicamente, consideramos ser a melhor evidência possível... Isso será um grande problema."

Um dos principais motivos pelos quais as deepfakes são consideradas perigosas é seu potencial de serem usadas para fins maliciosos. Por exemplo, as deepfakes podem ser usadas para criar provas de vídeo falsas em casos jurídicos, incriminar indivíduos por crimes que não cometeram ou até mesmo se passar por uma figura política para divulgar informações falsas. Manipulando a mídia dessa forma, as deepfakes têm o poder de destruir a confiança nas fontes tradicionais de informação e semear confusão e discórdia na sociedade.

De acordo com a DeepMedia, uma empresa que trabalha com ferramentas para detectar mídia sintética, 500.000 deepfakes foram publicados em sites de mídia social em todo o mundo em 2023. Isso representa três vezes mais deepfakes de vídeo e oito vezes mais deepfakes de voz em comparação com 2022.

Alguns exemplos recentes de uso mal-intencionado de deepfakes incluem a criação de pornografia falsa de celebridades, em que rostos de celebridades são inseridos digitalmente em vídeos pornográficos sem o consentimento delas. Além disso, houve casos em que vídeos deepfake foram usados para manipular preços de ações, difamar indivíduos ou divulgar propaganda política. Esses exemplos destacam o potencial de uso de deepfakes para fins prejudiciais e enganosos.

Crimes cibernéticos

O crime cibernético abrange uma ampla variedade de atividades criminosas que usam dispositivos e redes digitais. Esses crimes envolvem o uso da tecnologia para cometer fraudes, roubo de identidade, violações de dados, vírus de computador, golpes e outros atos maliciosos. Os criminosos cibernéticos exploram os pontos fracos dos sistemas e redes de computadores para obter acesso não autorizado, roubar informações confidenciais, interromper serviços e causar danos a indivíduos, organizações e governos.

Os adversários estão utilizando cada vez mais ferramentas de IA prontamente disponíveis, como ChatGPT, Dall-E e Midjourney, para ataques automatizados de phishing, ataques de personificação, ataques de engenharia social e chatbots falsos de suporte ao cliente.

De acordo com o SlashNext State of Phishing Report 2023, houve um aumento de 1.265% nos e-mails de phishing mal-intencionados, em grande parte atribuído ao uso de ferramentas de IA para ataques direcionados.

Os ataques de personificação estão se tornando cada vez mais comuns. Os golpistas estão usando o ChatGPT e outras ferramentas para se passar por indivíduos e organizações reais, envolvendo-se em roubo de identidade e fraude. Semelhante aos ataques de phishing, eles utilizam chatbots para enviar mensagens de voz se passando por um amigo, colega ou membro da família de confiança para obter informações pessoais ou acesso a contas. Em um caso notável de março de 2019, o diretor de uma subsidiária britânica de uma empresa de energia alemã foi vítima de um fraudador que imitou a voz do CEO, levando a uma transferência de quase £ 200.000 (US$ 243.000) para uma conta bancária húngara. Posteriormente, os fundos foram transferidos para o México e dispersos em vários locais. Os investigadores ainda não identificaram nenhum suspeito.

Crimes cibernéticos e punição

Em 2023, o Internet Crime Complaint Center (IC3) recebeu um número sem precedentes de reclamações do público americano: um total de 880.418 reclamações foram registradas, com perdas potenciais superiores a US$ 12,5 bilhões. Isso significa um aumento de quase 10% no número de reclamações recebidas e um aumento de 22% nas perdas em comparação com 2022. Apesar desses números surpreendentes, é importante observar que eles provavelmente subestimam a verdadeira extensão do crime cibernético em 2023. Por exemplo, quando o FBI desmantelou recentemente o grupo de ransomware Hive, descobriu-se que apenas cerca de 20% das vítimas do Hive haviam denunciado o crime às autoridades policiais.

Invasão de privacidade

Um excelente exemplo de vigilância social é o uso da tecnologia de reconhecimento facial pela China em escritórios, escolas e outros locais. Essa tecnologia não apenas permite o rastreamento dos movimentos dos indivíduos, mas também permite que o governo colete dados abrangentes para monitorar suas ações, atividades, relacionamentos e crenças ideológicas.

Os indivíduos agora podem ser monitorados on-line e em suas vidas diárias. Cada cidadão é avaliado com base em seus comportamentos, como andar na rua, fumar em áreas para não fumantes e o tempo gasto jogando videogame. Imagine que cada ação afeta sua pontuação pessoal no sistema de crédito social.

Quando o Big Brother está observando você e tomando decisões com base nessas informações, isso não é apenas uma invasão de privacidade, mas pode rapidamente se transformar em opressão social.

Crises financeiras

No mundo financeiro atual, o uso de algoritmos de aprendizado de máquina é amplamente difundido, com fundos de hedge e empresas de investimento que dependem fortemente desses modelos para analisar ações e ativos. Esses algoritmos são constantemente alimentados com enormes quantidades de dados tradicionais e alternativos para tomar decisões de negociação. Entretanto, há uma preocupação crescente de que a negociação algorítmica possa desencadear a próxima grande crise financeira.

2010 Flash Crash. $600 billion evaporated in 20 minutes

Flash Crash de 2010. US$ 600 bilhões evaporaram em 20 minutos

Um exemplo notável dos perigos de algoritmos defeituosos é o Flash Crash de 2010, em que o mercado de ações despencou repentinamente quase 1.000 pontos em questão de minutos antes de se recuperar rapidamente. Embora os índices de mercado tenham conseguido se recuperar parcialmente no mesmo dia, o Flash Crash apagou quase US$ 1 trilhão em valor de mercado. Essa queda repentina e drástica nos preços foi atribuída em grande parte aos algoritmos de negociação automatizados que reagiram às condições do mercado de forma imprevisível. Outro exemplo foi o Flash Crash da Knight Capital em 2012, em que um algoritmo com mau funcionamento fez com que a empresa perdesse US$ 440 milhões em apenas 45 minutos, levando-a à falência.

Esses acidentes servem como lembretes preocupantes dos possíveis riscos apresentados pela negociação algorítmica nos mercados financeiros. Quando os algoritmos não são adequadamente projetados, testados ou monitorados, eles podem ter consequências catastróficas. É fundamental que as instituições financeiras examinem minuciosamente seus algoritmos e garantam que as práticas adequadas de gerenciamento de risco estejam em vigor para evitar que desastres semelhantes ocorram no futuro.

Robôs assassinos

As armas autônomas alimentadas por inteligência artificial (IA) há muito tempo são tema de debate e preocupação entre governos, autoridades militares e defensores dos direitos humanos. Esses sistemas, também conhecidos como "robôs assassinos" ou "armas autônomas letais", têm a capacidade de selecionar e atacar alvos de forma independente, sem intervenção humana. Isso gera preocupações éticas, legais e de segurança significativas, pois essas armas têm o potencial de tomar decisões de vida ou morte sem supervisão humana.

O desenvolvimento de armas autônomas se acelerou nos últimos anos, à medida que a tecnologia de IA se tornou mais avançada e difundida. Essas armas podem variar de drones não tripulados a sistemas baseados em terra que podem identificar e atacar alvos de forma autônoma. Os defensores das armas autônomas argumentam que elas podem reduzir as baixas humanas em zonas de conflito e proporcionar operações militares mais precisas e eficientes. No entanto, os críticos argumentam que esses sistemas levantam sérias questões éticas e podem ter consequências indesejadas, como o agravamento de conflitos e mortes de civis.

O perigo representado pelas armas autônomas alimentadas por IA é muito real. Esses sistemas podem ser hackeados ou apresentar mau funcionamento, levando a consequências não intencionais e à perda de controle. Além disso, a falta de supervisão humana na tomada de decisões levanta preocupações sobre a responsabilidade e a possibilidade de violações do direito internacional humanitário.

Robôs assassinos na ficção científica

Em 2020, mais de 30 países pediram a proibição de armas autônomas letais, citando preocupações sobre a possibilidade de as máquinas tomarem decisões de vida ou morte. Apesar dessas preocupações, o desenvolvimento e a implantação de armas autônomas alimentadas por IA continuam a progredir. Sabe-se que países como Estados Unidos, Rússia, China e Israel estão investindo pesadamente nessas tecnologias. Nos EUA, o Departamento de Defesa vem desenvolvendo sistemas de armas autônomas, incluindo drones semiautônomos e veículos terrestres não tripulados.

Superinteligência incontrolável

A inteligência artificial supera o cérebro humano de várias maneiras, incluindo velocidade de computação, velocidade de comunicação interna, escalabilidade, capacidade de memória, confiabilidade, duplicabilidade, editabilidade, compartilhamento de memória e recursos de aprendizagem:

  • A IA opera potencialmente a vários GHz em comparação com o limite de 200 Hz dos neurônios biológicos.
  • Os axônios transmitem sinais a 120 m/s, enquanto os computadores o fazem na velocidade da eletricidade ou da luz.
  • A IA pode ser facilmente ampliada com a adição de mais hardware, ao contrário da inteligência humana, limitada pelo tamanho do cérebro e pela eficiência da comunicação social.
  • A memória de trabalho dos seres humanos é limitada em comparação com a capacidade de memória expansiva da IA.
  • A confiabilidade dos transistores na IA supera a dos neurônios biológicos, permitindo maior precisão e menos redundância.
  • Os modelos de IA podem ser facilmente duplicados, modificados e podem aprender com outras experiências de IA de forma mais eficiente do que os humanos.

Um dia, a IA poderá atingir um nível de inteligência que supera em muito o dos seres humanos, levando ao que é conhecido como explosão de inteligência.

Superinteligência e extinção humana

Essa ideia de autoaperfeiçoamento recursivo, em que a IA se aprimora continuamente em uma taxa exponencial, gerou preocupações sobre as possíveis consequências da criação de uma entidade superinteligente. Imagine um cenário em que a IA atinja um nível de inteligência que lhe permita pensar melhor e superar os humanos de todas as formas possíveis. Essa superinteligência poderia ter o poder de tomar decisões que afetariam muito nossa sociedade e nosso modo de vida. Assim como os seres humanos atualmente têm o destino de muitas espécies em suas mãos, o destino da humanidade pode um dia estar nas mãos de uma IA superinteligente.

Excesso de confiança na IA e responsabilidade jurídica

Confiar demais na tecnologia de IA pode resultar em uma diminuição da influência e do funcionamento humano em determinadas áreas da sociedade. Por exemplo, o uso da IA na área da saúde pode levar a uma diminuição da empatia e do raciocínio humanos. Além disso, a utilização de IA generativa para atividades criativas pode sufocar a criatividade humana e a expressão emocional. A interação excessiva com sistemas de IA também pode levar a um declínio na comunicação entre colegas e nas habilidades sociais. Embora a IA possa ser benéfica para automatizar tarefas, há preocupações quanto ao seu impacto sobre a inteligência humana geral, as habilidades e o senso de comunidade.

Além disso, há perigos em potencial que podem resultar em danos físicos aos seres humanos. Por exemplo, se as empresas dependerem exclusivamente de previsões de IA para programações de manutenção sem outra verificação, isso poderá resultar em mau funcionamento de máquinas que prejudiquem os trabalhadores. Na área da saúde, os modelos de IA podem levar a diagnósticos errôneos.

Além dos danos físicos, há maneiras não físicas pelas quais a IA pode representar riscos para os seres humanos se não for devidamente regulamentada. Isso inclui problemas de segurança digital, como difamação ou calúnia, segurança financeira, como o uso indevido da IA em recomendações financeiras ou verificações de crédito, e preocupações com a equidade relacionadas a vieses na IA que levam a rejeições ou aceitações injustas em vários programas.

E, quando algo dá errado, quem deve ser responsabilizado? É a própria IA, o desenvolvedor que a criou, a empresa que a colocou em uso ou é o operador, se houver um humano envolvido?

* * *

Concluindo, embora a inteligência artificial apresente muitos riscos e ameaças, ela também tem o potencial de beneficiar muito a sociedade e melhorar nossas vidas. É importante reconhecer que os aspectos positivos geralmente superam os negativos quando se trata de tecnologia de IA. Em nosso próximo artigo, discutiremos estratégias para mitigar os riscos associados à IA, garantindo que possamos aproveitar totalmente seu potencial para mudanças positivas.