Inteligência Artificial segura, controlável e compatível com humanos

Mesmo em seu estado atual, a tecnologia da inteligência artificial levanta muitas preocupações à medida que passa da pesquisa para o uso generalizado”, escreveu Stuart Russell, professor da UC Berkeley, em um ensaio recente, If We Succeed. “Essas preocupações incluem possíveis usos indevidos, como crimes cibernéticos, vigilância, desinformação e manipulação política; a exacerbação da desigualdade e de muitas formas de preconceito na sociedade; a criação e implantação de armas autônomas letais; e a usurpação dos papéis humanos na economia e nas relações sociais”.

Minha preocupação aqui, no entanto, é com as possíveis consequências do sucesso na criação de IA de propósito geral: ou seja, sistemas capazes de aprender rapidamente a ter um desempenho de alto nível em qualquer ambiente de tarefa em que humanos (ou coleções de humanos) possam ter um bom desempenho.” Décadas atrás, Alan Turing expressou uma preocupação semelhante. Ao responder a uma pergunta durante uma palestra em 1951, Turing disse: “Parece provável que, uma vez iniciado o método de pensamento da máquina, não demoraria muito para superar nossos fracos poderes. … Em algum momento, portanto, devemos esperar que as máquinas assumam o controle.” Ao longo da última década, várias figuras públicas como Stephen Hawking e Nick Bostrom argumentaram que uma IA superinteligente pode se tornar difícil ou impossível para os humanos controlarem, e pode até representar uma ameaça existencial para a humanidade.

Até recentemente, não precisávamos nos preocupar com as consequências de tais IAs sobre-humanas porque os aplicativos de IA não eram tão inteligentes e eram principalmente confinados a laboratórios de pesquisa. Mas, sistemas de IA poderosos agora igualaram ou superaram os níveis humanos de desempenho em várias tarefas específicas de aplicativos, como reconhecimento de imagem e fala, classificação de câncer de pele, detecção de câncer de mama e jogos complexos como Jeopardy e Go. Embora esses avanços específicos de aplicativos – geralmente chamados de IA suave ou estreita – já tenham sido vistos como domínio exclusivo dos humanos, a IA ainda carece da inteligência humana mais profunda e de propósito geral que há muito é medida em testes de QI.

A IA de uso geral tem sido o objetivo de longo prazo do campo desde o seu início”, observou Russell. “Dados os enormes níveis de investimento em pesquisa e desenvolvimento de IA e o influxo de pesquisadores talentosos no campo, é razoável supor que avanços fundamentais continuarão a ocorrer à medida que encontrarmos novas aplicações para as quais as técnicas e conceitos existentes são inadequados. … Os benefícios potenciais da IA de uso geral seriam muito maiores do que os de uma coleção de sistemas de IA restritos e específicos de aplicativos. Por esse motivo, a perspectiva de criar IA de uso geral está gerando investimentos maciços e rivalidades geopolíticas”.

Russell não está preocupado que sistemas de IA cada vez mais poderosos se tornem espontaneamente conscientes e decidam ferir ou eliminar humanos em algum momento no futuro. Sua preocupação é com o dano potencial que pode ser infligido por uma IA poderosa que os humanos são incapazes de controlar, não porque seja maliciosa, mas porque foi mal desenvolvida e testada inadequadamente. Vimos desastres devido a tecnologias mal desenvolvidas e gerenciadas em várias áreas, como os reatores nucleares de Chernobyl e Fukushima.

As preocupações de Russell com a IA e suas propostas para superá-las são o assunto de seu livro de 2019 Human Compatible: Artificial Intelligence and the Problem of Control, e estão bem resumidos neste periódico do NY Times e neste excelente seminário da Stanford.

De acordo com noções de longa data do comportamento humano, uma ação racional é aquela que pode ser esperada para alcançar os objetivos de alguém. Quando a IA surgiu na década de 1950, os pesquisadores tomaram emprestado essas noções de comportamento racional em humanos para definir a inteligência da máquina: uma máquina é inteligente na medida em que suas ações podem alcançar seus objetivos. Russell chama isso de modelo padrão em IA.

No entanto, diferentemente dos humanos, as máquinas não têm objetivos próprios, então cabe a nós não apenas criar as máquinas, mas definir os objetivos que queremos que elas alcancem. “Quanto mais inteligente a máquina, maior a probabilidade de completar esse objetivo.

Infelizmente, este modelo padrão é um erro”, disse Russell. “Não faz sentido projetar máquinas que sejam benéficas para nós apenas se anotarmos nossos objetivos de forma completa e correta.” O que acontece se as máquinas estão perseguindo os objetivos fixos que lhes demos, mas esses objetivos estão desalinhados com o benefício humano? Não há necessidade de assumir que as máquinas estão fora de controle devido a alguma consciência emergente que gerou espontaneamente seus próprios objetivos. “Tudo o que é necessário para supor uma catástrofe é uma máquina altamente competente combinada com humanos que têm uma capacidade imperfeita de especificar as preferências humanas de forma completa e correta. É por isso que, quando um gênio nos concede três desejos, nosso terceiro desejo é sempre desfazer os dois primeiros desejos.” As consequências de desencadear forças que entendemos inadequadamente foram retratadas no segmento O Aprendiz de Feiticeiro – filme clássico dos anos 1940, Fantasia.

O modelo padrão, então, apesar de todas as suas conquistas, é um erro. O erro vem de transferir uma definição perfeitamente razoável de inteligência de humanos para máquinas. Não é racional para humanos implantar máquinas que perseguem objetivos fixos quando há uma possibilidade significativa de que esses objetivos divirjam dos nossos.” Tal futuro é quase inevitável porque há pouca chance de que possamos especificar nossos objetivos de forma completa e correta. “Na verdade, podemos perder o controle completamente, pois as máquinas tomam medidas preventivas para garantir que o objetivo declarado seja alcançado.

Em vez disso, devemos projetar sistemas de IA que sejam benéficos para os humanos, não apenas inteligentes. Em vez de desenvolver máquinas para atingir seus próprios objetivos, devemos adotar um modelo de IA diferente: as máquinas são benéficas na medida em que suas ações podem alcançar nossos objetivos. Isso significa que as máquinas necessariamente estarão incertas sobre nossos objetivos, sendo obrigadas a persegui-los em nosso nome. Essa chance pode parecer pequena, mas é crucial.

A incerteza sobre os objetivos pode parecer contraproducente, mas na verdade é uma característica essencial de sistemas inteligentes seguros. Isso implica que não importa o quão inteligentes elas se tornem, as máquinas sempre se submeterão aos humanos. Eles pedirão permissão quando apropriado, aceitarão a correção e, o mais importante, permitirão que sejam desligados – precisamente porque querem evitar fazer o que quer que dê aos humanos uma razão para desligá-los. Uma vez que o foco mude da construção de máquinas inteligentes para aquelas que são benéficas, controlá-las se tornará uma tarefa muito mais fácil.

Colocar esse modelo em prática exigirá muita pesquisa nas próximas décadas, disse Russell em conclusão. “Isso não será fácil. Mas está claro que esse modelo deve estar em vigor antes que as habilidades da IA. sistemas excedem os humanos nas áreas que importam. Se conseguirmos fazer isso, o resultado será uma nova relação entre humanos e máquinas, que espero que nos permita navegar com sucesso nas próximas décadas.

Conte aos amigos

Deixe um comentário