Inteligência Artificial – Corremos Riscos?

29 de fevereiro de 2016
Compartilhe

Recentemente temos sido bombardeados com avanços significativos na área da Inteligência Artificial (IA). Computadores que conseguem descrever cenas, identificar objetos, responder questões que normalmente somente os humanos respondem… São inúmeros casos que demonstram que o computador cada vez mais “inteligente”. Mas será que isso representa um risco para a humanidade? Será que um dia os computadores irão substituir os seres humanos em tarefas mais complexas como, por exemplo, tomar decisões?

Que o computador já substitui o ser humano em diversas tarefas não é novidade para ninguém. Robôs fazem trabalhos arriscados ou repetitivos no lugar das pessoas. A questão é se isso será expandido para atividades que envolvam o raciocínio e a capacidade de pensar e tomar decisões. Para isso precisamos entender o que vem a ser IA.

Entende-se a IA como sendo um ramo da computação que tem como propósito criar dispositivos, artefatos e algoritmos que simulem a capacidade humana de pensar, racionar, perceber, tomar decisões e resolver problemas. Sob este ponto de vista fica claro que sim, nós, na ânsia de nos tornarmos criadores, queremos criar computadores à nossa semelhança. E, portanto, o objetivo final é fazer computadores “inteligentes” e que sejam capazes de nos substituir em processos que somente nós conseguimos (por enquanto) realizar.

Agora vamos definir Risco. Entende-se por Risco uma ameaça ou perigo que tenha probabilidade ou possibilidade de acontecer. Sob este ponto de vista, portanto, caso entendamos que a IA pode gerar uma ameaça ou perigo, é possível chegar à conclusão que sim. Mas será mesmo que a IA pode ser uma ameaça?

Segundo o professor Stuart Armstrong da universidade de Oxford o risco da IA gerar um impacto irreversível na sociedade é de 10%. Comparando com uma Guerra Nuclear que, segundo o mesmo professor tem risco de 0,005%, o risco é bastante alto.

Mas será que isso tem fundamento?

Vamos nos concentrar apenas em um ponto que tem evoluído bastante nos últimos anos. Existe um conjunto de algoritmos muito utilizados em IA chamado Deep Learning (DL). A origem do DL remonta da tentativa de se criar algoritmos inspirados na neurociência, como as Redes Neurais. A questão é que o DL utiliza um volume muito grande de dados e permite representações distribuídas para utilizar e criar modelos para praticamente qualquer área de conhecimento. O título deste Blog, apenas para reforçar, é a utilização da tecnologia de Big Data para apoiar os mais diversos processos computacionais.  Big Data, portanto, dá condições para que estes algoritmos sejam capazes de executarem as suas funções com maior e melhor qualidade.

Alguns exemplos de aplicação prática da DL:

  1. Microsoft desenvolveu uma aplicação de reconhecimento de objetos que, durante uma apresentação, superou o desempenho de seres humanos. O sistema errou cerca de 5% e os humanos 6%.
  2. Foi desenvolvido um tradutor simultâneo que, integrado ao Skype, permite que uma pessoa fale em inglês e a outra ouça em espanhol (e vice-versa).
  3. A Google desenvolveu um sistema que permite ao computador ler textos. Com isso podemos imaginar um tempo em que os computadores serão capazes de “aprender” sem que nós tenhamos que “alimentá-los” com dados.
  4. Uma startup chamada MetaMind criou um sistema que permite ao computador conectar diversas partes de um texto ou diálogo para que ele responda de maneira mais inteligente as questões propostas.
  5. Um sistema chinês obteve um desempenho melhor do que seres humanos em testes de QI.

O sucesso do DL é tão grande que a IBM está implantando algoritmos deste tipo no Watson, o supercomputador que ganhou de dois dos maiores vencedores de um famoso programa de perguntas e respostas da televisão americana.

É fácil concluir, mesmo com uma visão parcial da tecnologia, que sim os computadores poderão no futuro ser muito inteligentes e como são focados em assuntos e temas específicos ser até melhores que os seres humanos.

E isso poderia então ser um risco para a humanidade?

No meu entender sim. Se usássemos estes programas apenas para o bem, seria excelente para todos. Mas computadores, softwares e algoritmos são apenas ferramentas. Elas podem ser bem ou mal utilizadas pelo ser humano. A história já nos deu exemplos fantásticos do uso de tecnologias tanto para o bem quanto para o mal. Talvez o melhor exemplo disso seja a fissão nuclear.

Mas pela definição, risco não significa que o fato efetivamente irá acontecer. Portanto vamos esperar e torcer para que o ser humano utilize a IA apenas para finalidades nobres.

 

Celso Poderoso é coordenador dos cursos de MBA da FIAP (Arquitetura de Redes e Cloud Computing, Big Data – Data Science), professor dos cursos de pós-graduação da FIAP. É mestre em Tecnologia, especialista em Sistemas de Informação e economista. Atualmente é diretor de serviços profissionais na MicroStrategy.  Possui livros publicados na área de banco de dados, como SQL Curso Prático e Oracle PL/SQL 10g. Todos editados pela Novatec Editora.

 

Nosso site armazena cookies para coletar informações e melhorar sua experiência. Gerencie seus cookies ou consulte nossa política.

Prosseguir