Opinião

Apocalipse da Inteligência artificial: como o mundo está se preparando

Inteligência Artificial

Você sabe o significado da palavra apocalipse? É a revelação de quando as cortinas se abrem para algo novo.

E é para isso que estamos caminhando com a inteligência artificial. Afinal, quando as máquinas começarem a desenvolver pensamentos e ações sem a interferência humana, quais serão seus limites?

Como já dizia o cientista Stephen Hawking: “O desenvolvimento da inteligência artificial completa poderia significar o fim da raça humana. Ela decolaria por conta própria e se redesenharia a um ritmo cada vez maior. Os humanos, que são limitados pela lenta evolução biológica, não poderiam competir e seriam superados.”

Em 2016, um robô da DeepMind da Google chamado AlphaGo venceu uma partida de um jogo de tabuleiro chamado Go contra Lee Se-dol, um jogador sul-coreano considerado o melhor humano na modalidade desde a última década.

Essa vitória foi uma surpresa, já que o Go é um jogo considerado muito complicado para padrões artificiais, pois envolve várias várias camadas de intuição e avaliação.

Muitos especialistas não acreditavam que a inteligência artificial derrotaria o melhor jogador humano em 10 anos, mas isso aconteceu em 2016. Portanto, devemos considerar a ameaça da AI ​​e seu ritmo de desenvolvimento.

Nesse contexto, o que podemos fazer para nos preparar? Conheça as organizações por trás dessa tecnologia e saiba o que está sendo feito para garantir com que essa evolução seja benéfica para a sociedade.

Comunidades envolvidas garantem ética

Houve várias respostas vindas de líderes acadêmicos e empresariais sobre às ameaças com potencial da inteligência artificial avançada.

Dois grupos que estão envolvidos nesse desenvolvimento são o Partnership on AI e o the Future of Life Institute. Esse último tem mais de 3.000 pesquisadores proeminentes de inteligência artificial e líderes empresariais contratados para cuidar dos Princípios de Inteligência Asilomar, ou seja, princípios de ética e valores para orientar e capacitar os cientistas nas próximas décadas e séculos de forma responsável.

Enquanto isso, a Partnership on AI  —  que conta com os parceiros fundadores Google, Amazon, Apple, Facebook, Microsoft e IBM — centrou seus objetivos em torno de liderança e envolvimento da comunidade de AI.

O trabalho que está sendo feito por esses grupos é um bom começo, mas eles parecem não ter uma força executória por trás de suas promessas.

Empresas também estão contribuindo

A DeepMind, líder mundial em pesquisa de AI, permitiu que o Google a adquirisse em 2014, sob a condição de que ele estabelecesse um conselho de ética independente para supervisionar suas atividades. Porém, pouco se sabe sobre essa prática.

Além disso, a DeepMind confirmou em julho de 2017 que a empresa está trabalhando para adicionar “imaginação” à AI, para que possa planejar melhor e evitar situações prejudiciais por conseguir imaginar resultados.

Da mesma forma que os pais dizem às crianças para “pensar antes de agir”, a AI consideraria as consequências e escolheria uma ação se ela não causasse danos, por exemplo.

Apesar disso, a falta de transparência é preocupante. Há sempre um motivo de lucro que cria uma estrutura de incentivo que não é bom para o desenvolvimento de tecnologias inteligentes. É uma corrida armamentista.

Nenhuma empresa quer ser deixada para trás por um rival e deseja ser pioneira em novidades relacionadas a inteligência artificial.

Reconhecendo isso, em 2015, veteranos da indústria de tecnologia fundaram a OpenAI, um think tank, ou seja fábricas de ideias, financiado com US $ 1 bilhão.

O objetivo dessa organização é pesquisar a AI sem um propósito comercial, para que possa assegurar que ela se desenvolva de uma maneira benéfica para a humanidade.

Em suma, a fundação da OpenAI reconhece que a ética não acompanhou o progresso tecnológico.

No entanto, é necessário haver supervisão do governo para garantir que a devida cautela seja tomada, pois ele tem mais poder monetário para investimentos.

Uma ameaça muito real

Um raciocínio similar levou CEOs de tecnologia, como Elon Musk, a pedirem aos líderes do governo dos EUA que regulassem os processos. Em julho de 2017, Musk expressou suas preocupações para uma cúpula de governadores:

“Eu continuo soando o alarme, mas até que as pessoas vejam robôs descendo a rua e matando pessoas, elas não saberão como reagir, porque parece tão longe da realidade.”

E esse é o problema. Levar as pessoas a se preocuparem com a ética na AI é difícil. É complicado para a maioria de nós entender a ideia de que um programa de computador causaria estragos sem uma presença física.

Musk ainda deu um exemplo desse cenário hipotético com o caso do avião da Malásia que foi abatido com um míssil sobre a Ucrânia em 2014 (confira o caso completo aqui):

“Se você tivesse uma AI, onde a meta ​​é maximizar o valor de uma carteira de ações, uma das maneiras de fazer isso seria ir muito longe na defesa e começar uma guerra. Invadir as companhias aéreas da Malaysian Airlines com um servidor de roteamento de aeronaves, encaminhá-lo por uma zona de guerra e enviar uma denúncia anônima de uma aeronave inimiga estar sobrevoando agora.”

Dessa forma, Elon Musk compartilhou apenas uma maneira simples com que a AI poderia começar com uma guerra que acabaria com o mundo.

Isso faz com que a ameaça da AI ​​pareça muito real e muito simples, não é? Imagine se inteligências com intenções malignas assim fossem deliberadamente programadas.

É por isso que agora é a hora dos líderes do governo trabalharem com líderes industriais e acadêmicos, nos campos da AI ​​e da ética, para estabelecer regulamentações e parcerias adequadas a fim de se preparar para o risco existencial da inteligência artificial.

Resposta do governo: presente e futuro

Organizações privadas não são as únicas a começarem a prestar atenção na AI.

Tanto a administração do ex-presidente Obama, com seu relatório “Preparing for the Future of Artificial Intelligence“, quanto o governo chinês —  que recentemente divulgou o objetivo de se tornar o líder mundial em AI até 2030 —  enviou sinais claros de que esse é um problema que não pode ser ignorado.

No entanto, é importante notar que, em ambos os casos, o foco é principalmente nos resultados econômicos.

A responsabilidade do governo é com a sociedade, e as pessoas se preocupam se ainda poderão sustentar suas famílias por conta da ameaça de suas ocupações com o aprendizado de máquina.

Apesar da legislação em torno do impacto econômico ser importante, por enquanto, a ameaça da AI ​​em si parece ser mais uma reflexão tardia. Isso faz sentido porque os políticos estão acostumados a aprovar a regulamentação depois que os problemas com a tecnologia já surgiram.

É difícil prever os efeitos negativos de todas as novas tecnologias, porém uma vez que eles se tornem claros, pode ser tarde demais para a intervenção do governo.

É por isso que os políticos precisam trabalhar com especialistas em tecnologia. Dessa forma, eles serão mais preventivos com a regulamentação nessa área.

Por fim, isso permitirá que os políticos compreendam melhor a natureza da AI ​​a partir de um nível fundamental, que os ajudará com as mudanças econômicas que essas tecnologias provavelmente causarão.

Conclusão

Então, o que isso tudo significa para a pessoa comum que não trabalha no campo da AI, ética ou política? Bem, nós temos duas opções.

Sentar, esperar e cruzar os dedos para que tudo dê certo, ou se educar, conscientizar e pedir que os nossos representantes regulem adequadamente o desenvolvimento da inteligência artificial. E se você chegou ao final desse artigo, saiba que você sabe mais sobre o desenvolvimento da AI ​​do que 95% da população. E conhecimento é poder.

Agora, a escolha é sua: você pode assumir a responsabilidade que vem junto com esse poder e ajudar a desempenhar um pequeno papel para garantir que nosso futuro de inteligência artificial seja bom ou não fazer nada.

Saiba mais sobre o futuro das tecnologias nesse post completo sobre transformação digital.

Esse artigo é uma tradução e adaptação do original que você pode encontrar nesse link.

Publicações relacionadas
Escolhas do EditorOpinião

Dados são a base para experiências valiosas — Carta ao leitor da 4ª edição da Rock Content Magazine

Opinião

A inteligência em tratar do outro

Opinião

Assepsia numérica

Opinião

Como a experiência de conteúdo vai evoluir depois do coronavírus