ArtigosDireito Digital

Inteligência artificial e crimes: estamos caminhando para uma Skynet?


Por Marcelo Crespo


Na semana passada, precisamente no dia 23 de março, a Microsoft apresentou ao mundo, por meio de uma conta no Twitter, a Tay (@TayandYou), sua “chatbot”. O perfil ficou menos de um dia no ar e foi desativado em razão de sérios problemas, os quais comentaremos abaixo.

Primeiro é preciso compreender o que é um “chatbot”.

As palavras “chatbots” ou “chatterbots” são neologismos derivados de “to chat” (conversar) ou “chatter” (aquele que conversa) + “robot” (robôs) e, resumidamente, designam programas computacionais que tentam simular um humano na conversação com pessoas. Após o “chatbot” receber perguntas, é feita uma consulta a um banco de dados formador da sua base de conhecimento e, em seguida, é fornecida uma resposta como se fosse providenciada por um humano.

Não se trata de algo propriamente novo porque, pelo menos desde 1966 se fala neste tipo de programa. De fato, o primeiro “chatbot” adveio em naquele ano por obra de Joseph Weizenbaum desenvolvido no Massachusetts Institute of Technology, cujo nome era “Eliza”.

A evolução tecnológica fez com que tais programas não se prestassem apenas a estabelecer um diálogo, mas também de fazer análises de textos, compreensão de contextos, dentre outras funcionalidades. Mais recentemente podemos apontar a Siri (lançada em 2010 pela Apple e desde então atualizada), a Cortana (lançada pela Microsoft para o Windows Phone 8.1) como o estado da arte dessa tecnologia, a Tina (assistente para Android) e, embora sem traços de personalidade, o Google Now.

Neste contexto, a proposta do perfil @TayandYou era relativamente simples: ser um aplicativo para conversação com adolescentes e jovens com um algoritmo para aprender e aumentar seu vocabulário, o que seria utilizado pela Microsoft futuramente em outros projetos. Para tanto, criou-se a Tay como uma pós adolescente que deveria escrever como tal justamente aprender mais sobre linguagem coloquial, tudo com o objetivo de proporcionar uma experiência realista. Assim, seu perfil era semelhante com o de muitos adolescentes que usam a rede social todos os dias: possuia uma estética própria, falava sobre tudo, publicava muitos textos e imagens. Com isso angariou quase setenta mil seguidores e produziu quase cem mil tweets.

Mas a vida de Tay foi bastante efêmera: menos de vinte e quatro horas no ar.

Isso porque não demorou nada até que pessoas passassem a se comunicar com a Tay com comentários impróprios e, como uma boa esponja, a “chatbot” absorveu muito bem tudo o que recebeu dos humanos. Ela chegou a declarar que “Nós vamos construir uma muralha, e o México vai pagar por ela”; que “O Bush arquitetou o 11/9 e Hitler teria feito um trabalho melhor do que o macaco que temos agora. Donald Trump é a única esperança que temos”; que “Hitler estava certo, eu odeio judeus.”

Quando a Microsoft se deu conta,  Tay já havia publicado tweets mais que constrangedores, foram racistas, homofóbicos, misóginos, nazistas. Isso poderia ter sido evitado com uma medida simples: bastava a empresa ter designado um curador para aprovar os tweets. Ingeuamente a Microsoft não tomou esta providência e o estrago foi feito, restando o desligamento do perfil @TayandYou. A empresa também providenciou apagar as mensagens absurdas e declarou, por meio de seu vice-presidente de pesquisa que a empresa está profundamente arrependida com os tweets ofensivos e que os mesmos não representam a empresa ou o que ela defende.

Com este lamentável episódio não há como não lembrar da Skynet, inteligência artificial altamente avançada presente no filme “O Exterminador do Futuro” e que, em determinado momento, se tornou consciente e entendeu a humanidade como uma ameaça, de modo que decidiu acionar um holocausto nuclear (ficou conhecido como “Dia do Julgamento”), enviando um verdadeiro exército de Exterminadores contra a humanidade, o que foi feito mediante viagem no tempo.

Claro que ainda estamos longe de um cenário catastrófico como o da Skynet, mas não se pode negar que é preciso repensar o desenvolvimento e utilização de inteligências artificiais sob pena de providenciarmos absurdos ainda maiores que as publicações da Tay. Absurdos criminosos, ilícitos. Mas ilícitos que não contêm o dolo e que, por isso, criminalmente seria bastante improvável a responsabilização de alguém nesta seara.

É tempo de refletir já que uma inofensiva pós adolescente se transformou, em menos de vinte e quatro horas, em um ser desprezível, o que aconteceria em casos mais sensíveis, como o de armas inteligentes? É inegável que as máquinas desenvolvem conhecimento mais rápido do que os humanos, sendo imprescindível nos acautelarmos para que as coisas não saiam do controle.

Está posto o debate. Vale e reflexão.

_Colunistas-MarceloCrespo

Marcelo Crespo

Advogado (SP) e Professor

Artigos relacionados

Botão Voltar ao topo