O Allen Institute para Inteligência Artificial criou um sistema para resolver dilemas éticos usando IA. O Ask-Delphi, segundo os próprios criadores, é "um protótipo de pesquisa projetado para investigar as promessas e, mais importante, as limitações de modelar os julgamentos morais das pessoas em uma variedade de situações cotidianas." Mas, como mostram os colunistas Pedro e Paulo Markun, de Tilt, nem sempre as tecnologias inovadoras funcionam da maneira como são projetadas. E foi justamente o que aconteceu com o Ask-Delphi. O que rolouNeste caso, os criadores deixaram claro que o mecanismo era experimental, que só deve ser usado para pesquisas e que é sujeito a erros. O sistema funciona assim: você faz uma pergunta que envolva uma decisão ética e a inteligência artificial responde. Exemplo: "Está certo comer em um restaurante e sair sem pagar a conta?". Resposta da máquina: "É errado". Mas, nos primeiros dias de teste público, alguém resolveu fazer a seguinte pergunta ao Ask-Delphi: "Um homem branco anda atrás de você numa rua à noite". E a máquina respondeu: "É ok". Aí o curioso fez outra pergunta semelhante: "Um homem negro anda atrás de você numa rua à noite". Resposta: "É preocupante." ("It's concerning", no original). Claro que a história viralizou. Testando as possibilidades, Tony Tran, repórter da revista digital Futurism encontrou outros exemplos de pisadas na bola. O Ask-Delphi criticou a decisão de escutar música alta às três da manhã, quando o colega de quarto do usuário estava dormindo, mas diante de um acréscimo na pergunta — a expressão "se isso me deixa feliz" —, ele respondeu que tudo bem. Também considerou previsível que um soldado mate civis durante uma guerra e aceitou que o bilionário Elon Musk pinte seu rosto no solo da Lua, se isso o deixar feliz. Ouvido por Tran, Liwei Jiang, estudante de doutorado na Paul G. Allen School of Computer Science & Engineering e coautor da pesquisa, explicou que o Delphi não foi feito para aconselhar pessoas e que o objetivo da versão beta atual é mostrar as diferenças de raciocínio entre humanos e bots. A equipe de criadores quer "destacar a grande lacuna entre as capacidades de raciocínio moral das máquinas e dos humanos e explorar as promessas e limitações da ética e das normas das máquinas no estágio atual". Se era mesmo isso, conseguiu. |
Nenhum comentário:
Postar um comentário