Inteligência Artificial e a evolução da história

No ano passado o MIT inalgurou mais um e seus centros de estudos avançados, o Schwarzman College of Computing – uma resposta estratégica do MIT ao aumento da demanda por conhecimento da inteligência artificial – uma tecnologia que remodelará a “geopolítica, nossa economia, nossa vida cotidiana e a própria definição de trabalho” nas próximas décadas. Na celebração de abertura, houveram palestras e painéis sobre uma variedade de tópicos, alguns focados em aplicações inovadoras de tecnologias de IA, outros nos problemas levantados por essas tecnologias.

Sobre as questões desafiadoras, do impacto da IA em nossas interações sociais, foi muito interessante a palestra da professora do MIT Sherry Turkle sobre Repensando o atrito na cultura digital e também o artigo do professor de Yale, Nicholas Christakis, sobre Como a IA Nos Recompensará.

Houve ainda a entrevista do colunista do NY Times Thomas Friedman com o ex-secretário de Estado dos EUA, Dr. Henry Kissinger. A entrevista foi baseada em um artigo do Dr. Kissinger – Como o Iluminismo Termina: “Filosoficamente, intelectualmente – em todos os aspectos – a sociedade humana não está preparada para a inteligência artificial”. Friedman perguntou como Kissinger se interessou pelo assunto da IA. Kissinger respondeu que começou a refletir sobre a IA depois de ouvir uma palestra sobre o assunto em uma conferência em 2015. Ao longo de três anos de discussões, ele ficou cada vez mais preocupado com o fato de o conhecimento técnico da IA estar muito à frente do nosso entendimento de suas implicações políticas, sociais e humanas, bem como de seu impacto a longo prazo na evolução da história. Foi isso que o levou a escrever o seu artigo.

A tese central do artigo de Kissinger é que “Até agora, o avanço tecnológico que mais alterou o curso da história moderna foi a invenção da imprensa no século XV, que permitiu a busca de conhecimento empírico para suplantar a doutrina litúrgica e a Era da Razão para gradualmente substituir a Era da Religião … ”

“A Era da Razão originou os pensamentos e ações que moldaram a ordem mundial contemporânea. Mas essa ordem está agora em agitação em meio a uma nova revolução tecnológica ainda mais abrangente, cujas consequências não conseguimos contar totalmente, e cujo ponto culminante pode ser um mundo que depende de máquinas movidas por dados e algoritmos e não governado por normas éticas ou filosóficas.”

A revolução da IA pressagia um Novo Iluminismo ou uma Nova Era das Trevas, perguntou Friedman. “Não sabemos“, respondeu Kissinger. Não entendemos como relacionar as muitas opções oferecidas pela AI a critérios humanos como ética, ou mesmo para definir quais são esses critérios. “A era da internet em que já vivemos prefigura algumas das questões e questões que a IA só tornará mais aguda” … escreveu Kissinger no artigo. “Os usuários da internet enfatizam a recuperação e manipulação de informações em vez de contextualizar ou conceituar seu significado … como regra geral, exigem informações relevantes para suas necessidades práticas imediatas … A verdade se torna relativa. As informações ameaçam sobrecarregar a sabedoria … Inundado pelas mídias sociais com as opiniões de multidões, os usuários são desviados da introspecção … ”

“O impacto da tecnologia da internet na política é particularmente pronunciado. A capacidade de direcionar micro grupos quebrou o consenso anterior sobre prioridades, permitindo um foco em propósitos ou queixas especializadas. Os líderes políticos, sobrecarregados por pressões de nicho, são privados de tempo para pensar ou refletir sobre o contexto, contratando o espaço disponível para desenvolver a visão. A ênfase do mundo digital na velocidade inibe a reflexão; seu incentivo capacita o radical sobre o pensativo; seus valores são moldados pelo consenso de subgrupos, não pela introspecção.”

A IA leva essas preocupações para um nível totalmente diferente. Até agora, aplicamos tecnologias para automatizar processos dentro de sistemas e objetivos prescritos pelo homem. A IA, em contraste, é capaz de prescrever seus próprios objetivos.

“Os sistemas de IA, por meio de suas próprias operações, estão em constante fluxo à medida que adquirem e analisam instantaneamente novos dados, depois buscam melhorar a si mesmos com base nessa análise. Através desse processo, a inteligência artificial desenvolve uma habilidade anteriormente pensada como reservada para os seres humanos. Faz julgamentos estratégicos sobre o futuro.”

Kissinger acha que “o impacto da IA terá consequências históricas“. Suas aplicações são cada vez mais capazes de gerar resultados totalmente inesperados e radicalmente diferentes da maneira como os seres humanos resolvem problemas.

“Com o tempo, a inteligência artificial trará benefícios extraordinários para a ciência médica, energia limpa, questões ambientais e muitas outras áreas”, escreveu Kissinger em seu artigo,

“Mas justamente porque a IA faz julgamentos em relação a um futuro em evolução, ainda não determinado, incerteza e ambiguidade são inerentes aos seus resultados.”

Seu artigo lista três áreas principais de preocupação:

Os aplicativos de IA podem alcançar resultados indesejados. Como podemos garantir que nossos sistemas de IA cada vez mais complexos façam o que queremos? A ficção científica está cheia de cenários de IA, por exemplo, Hal em 2001: Uma Odisséia no Espaço. Mas, além da ficção científica, existem outras maneiras principais pelas quais as coisas podem não funcionar como o esperado.

Todos conhecemos bugs de software, especialmente bugs em softwares altamente complexos, como é o caso dos sistemas de IA. A crescente complexidade dos sistemas de IA e seu alistamento em funções de alto risco, como controlar aviões, carros, robôs cirúrgicos e sistemas de saúde, significa que devemos redobrar nossos esforços em testar e avaliar a qualidade desses sistemas de IA.

Além dos bugs de software, os sistemas de IA podem ter problemas próprios, especialmente se desenvolvidos usando algoritmos de aprendizado de máquina e treinados com grandes conjuntos de dados. Pode haver falhas adicionais nos próprios algoritmos. Ou os dados do treinamento podem incluir vieses imprevistos. Os sistemas podem muito bem estar funcionando como projetados, mas não como realmente queremos que eles funcionem. Pode demorar um pouco para descobrir se o problema está no software, nos algoritmos de aprendizado de máquina, nos dados de treinamento ou em alguma combinação de todos os itens.

O sistema de IA pode ser incapaz de explicar a sia lógica, mesmo que esteja funcionando corretamente e atinja os objetivos pretendidos. Pode ser incapaz de explicar como o fez em termos que os humanos entenderão. Explicar a um ser humano o raciocínio por trás de uma decisão ou recomendação específica feita por um algoritmo de aprendizado de máquina é bastante difícil, porque seus métodos – ajustes sutis nos pesos numéricos que interconectam seu grande número de neurônios artificiais – são muito diferentes daqueles usados por humanos.

Ao atingir seus objetivos, a IA pode mudar os processos de pensamento e valores humanos. Em geral, os humanos resolvem problemas complexos desenvolvendo um modelo explícito ou conceitual do problema. Esses modelos fornecem o contexto para se chegar a uma solução ou tomar uma decisão. A IA, por outro lado, aprende matematicamente, ajustando marginalmente seus algoritmos enquanto analisa seus dados de treinamento. Essa falta de contexto inerente pode levar a IA a interpretar mal as instruções humanas. Torna difícil para a IA levar em conta o tipo de advertências subjetivas, qualitativas, como éticas ou razões, que orientam as decisões humanas.

Além disso, dado que a IA aprende exponencialmente mais rápido que os humanos, é provável que seus erros e desvios se propaguem e cresçam mais rapidamente do que aqueles tipicamente cometidos por humanos. Um sistema de IA que esteja constantemente aprendendo com a ingestão de novos dados pode inevitavelmente desenvolver pequenos desvios que, com o tempo, podem se transformar em falhas catastróficas. Os humanos usam atributos qualitativos como sabedoria, julgamento e bom senso para moderar e corrigir seus erros – atributos que os sistemas de IA com base quantitativa geralmente não possuem.

Para encerrar, Thomas pergunta a Henry:

Quando você voltar daqui a 10 anos e entregar ao [presidente do MIT] Rafael um boletim para a Escola de Computação, o que constituirá sucesso para esta nova empresa?“.

A que Kissinger respondeu:

“Eu gostaria de ver se as pessoas que estarão explorando o próximo estado, no futuro próximo, têm um domínio melhor do que agora sobre a natureza das concepções que a inteligência artificial produz.”

“Então, eu gostaria de ver se foi possível desenvolver alguns conceitos [para controlar ataques cibernéticos baseados em IA] que sejam comparáveis aos conceitos de controle de armas nos quais estive envolvido, digamos, 50 anos atrás, que nem sempre foram bem-sucedidos. Em teoria era bastante explicável. Mas ainda não temos isso.

E em todos ou na maioria dos campos de IA que estão sendo explorados, eu ficaria muito interessado em ver se as empresas ou instituições que os estão promovendo não estão apenas resolvendo o problema que os interessou, mas… fizeram algum progresso nas implicações. Isso determinará o nosso futuro e o futuro do mundo.”

Conte aos amigos

Deixe um comentário