Teoria do Big Bang Teoria do Big Bang
Home

Podemos forçar as IAs a serem justas com as pessoas? Cientistas inventaram uma maneira

Parece que a inteligência artificial pode descobrir como fazer qualquer coisa. Ele pode simular o Universo, aprender a resolver o Cubo de Rubik com apenas uma mão e até encontrar fantasmas escondidos em nosso passado. Todos esses tipos de avanços são feitos para o nosso próprio bem. Mas e quando não são? Nos últimos tempos, sistemas algorítmicos que já afetam a vida das pessoas têm demonstrado níveis alarmantes de preconceito em suas operações, fazendo coisas como prever criminalidade ao longo de linhas raciais e determinar limites de crédito com base no gênero.

Nesse cenário, como os cientistas podem garantir que sistemas avançados de pensamento sejam justos ou mesmo seguros? Um novo estudo liderado por pesquisadores da Universidade de Massachusetts Amherst procura oferecer uma resposta, descrevendo uma estrutura para impedir o que a equipe chama de "comportamento indesejável" em máquinas inteligentes.

"Quando alguém aplica um algoritmo de aprendizado de máquina, é difícil controlar seu comportamento", diz o pesquisador de aprendizado de máquina Philip Thomas. "Facilitar a garantia de justiça e evitar danos está se tornando cada vez mais importante, à medida que os algoritmos de aprendizado de máquina afetam cada vez mais nossas vidas".

A estrutura - que poderia ajudar os pesquisadores de IA a desenvolver novos tipos de algoritmos de aprendizado de máquina (ML) - não imbui as IAs com nenhum entendimento inerente de moralidade ou justiça, mas facilita os pesquisadores de ML a especificar e regular comportamentos indesejáveis quando estão projetando seus principais algoritmos. No coração do novo sistema estão o que a equipe chama de algoritmos seldonianos, nomeados após o personagem central da famosa série de romances de ficção científica da Fundação Isaac Asimov. Esses algoritmos não se destinam apenas a garantir uma operação ética; qualquer tipo de comportamento pode ser controlado, como recursos de segurança complexos em sistemas médicos.

"Se eu usar um algoritmo seldoniano para tratamento do diabetes, posso especificar que comportamento indesejável significa açúcar no sangue perigosamente baixo ou hipoglicemia", diz Thomas. "Posso dizer à máquina: Enquanto você estiver tentando melhorar o controlador na bomba de insulina, não faça alterações que aumentem a frequência da hipoglicemia. A maioria dos algoritmos não fornece uma maneira de colocar esse tipo de restrição no comportamento; ele não foi incluído nos designs iniciais".

Como parte de sua pesquisa, a equipe desenvolveu exatamente um algoritmo Seldoniano para controlar uma bomba de insulina automatizada, identificando uma maneira personalizada de prever com segurança doses para uma pessoa com base em sua leitura de glicose no sangue. Em outro experimento, eles desenvolveram um algoritmo para prever os GPAs dos alunos, evitando o viés de gênero encontrado nos algoritmos de regressão usados com frequência.

Os pesquisadores enfatizam que esses experimentos servem apenas como prova de princípio do que os algoritmos Seldonianos são capazes, e que o foco principal do trabalho é a própria estrutura, que outros cientistas podem usar como um guia para construir futuros sistemas de IA.

"Acreditamos que há muito espaço para melhorias nessa área", diz Thomas. "Mesmo com nossos algoritmos feitos de componentes simples, obtivemos resultados impressionantes. Esperamos que os pesquisadores de aprendizado de máquina continuem desenvolvendo algoritmos novos e mais sofisticados usando nossa estrutura, que pode ser usada com responsabilidade em aplicativos onde o aprendizado de máquina também era considerado arriscado."