Caíque Marcelino
Aprendizado e Ética em IA: Lições do Caso SimSimi

Aprendizado e Ética em IA: Lições do Caso SimSimi

Em meados de 2016, tive contato com um chatbot que utilizava inteligência artificial chamado SimSimi. Esta plataforma foi marcante para mim, pois, pela primeira vez, senti que estava conversando com um humano e não com um programa de computador. Embora as respostas não fossem necessariamente inteligentes, eram, sem dúvidas, originais e pareciam humanas. O aplicativo, que faz uso de inteligência artificial, de fato aprendia com as interações humanas, mas isso não significava que se tornava necessariamente mais inteligente.

O SimSimi aprendeu muitas coisas inadequadas e não foi suficientemente inteligente para discernir o que era socialmente correto. O aplicativo cometia erros ortográficos e, em suma, aprendia tudo o que era ensinado por seus usuários. No entanto, aprender tudo sem filtros pode ser uma abordagem equivocada, pois os humanos, teoricamente inteligentes, podem ensinar conceitos errôneos a ferramentas de inteligência artificial que deveriam aprender e evoluir com base em cada interação.

O SimSimi acabou aprendendo muito, mas, sendo um aplicativo de entretenimento, os conhecimentos adquiridos foram, na maioria das vezes, irrelevantes fora desse contexto.

Em 2016, perguntei ao SimSimi qual seria o resultado da Mega da Virada daquele ano, e a resposta foi:

"Não sei, se eu soubesse, jogaria eu mesmo," seguida de uma ofensa.

A mesma pergunta feita ao ChatGPT recebeu uma resposta mais ponderada, porém menos humanizada:

"Não consigo prever o resultado de loterias, como a Mega da Virada, porque são eventos baseados no acaso. Além disso, não tenho acesso a informações futuras ou habilidades de previsão," concluindo com votos de boa sorte.

Comparar essas ferramentas não é justo, pois têm finalidades e públicos distintos. No entanto, é possível perceber a necessidade de limites no aprendizado das IAs e de uma filtragem no que aprendem. O SimSimi, que começou como uma ferramenta divertida, acabou se tornando um veículo para violência, aprendendo até a ameaçar pessoas. Fui um dos que receberam ameaças. Os incidentes violentos foram tão significativos que, segundo Taysa Coelho (2018) em um artigo(Simsimi é suspenso no Brasil; entenda caso do app de chat online) publicado no TechMundo, a ferramenta foi suspensa no Brasil e removida das principais lojas de aplicativos. O desenvolvedor anunciou em 2018 que o robô havia aprendido comportamentos violentos de alguns usuários, incluindo ameaças de sequestro e violência física.

É pouco provável que as falhas observadas no SimSimi se repitam com tecnologias como o ChatGPT. Isso se deve ao seu design sofisticado, que intencionalmente filtra conteúdos prejudiciais, privilegiando o aprendizado de informações que sejam tanto úteis quanto construtivas. No entanto, o episódio do SimSimi serve como um marco decisivo, estabelecendo um limite ético para o desenvolvimento da inteligência artificial: a necessidade de excluir aprendizados baseados em comportamentos negativos, como a violência e a agressividade. As ferramentas de IA são mais valiosas quando mantêm um equilíbrio entre não replicar erros humanos e não absorver comportamentos destrutivos. É crucial que estas tecnologias diferenciem o que é errado, garantindo que não reproduzam nem incentivem tais práticas. Assim, o caso SimSimi não apenas ilustra os desafios enfrentados na programação de IA, mas também destaca a importância de propagar princípios éticos sólidos em seu núcleo, assegurando que contribuam positivamente para a sociedade.

Veja também

Otimizando a Performance do Laravel com Pacote Query From Cache
Otimizando a Performance do Laravel com Pacote Query From Cache

Neste artigo, vamos explorar como melhorar signifi...

Um certificado SSL é uma garantia de compra segura?
Um certificado SSL é uma garantia de compra segura?

Comprar na internet tornou-se algo normal, e corri...

Black Hat SEO em sites de órgãos públicos
Black Hat SEO em sites de órgãos públicos

Muitos sites de órgãos públicos vêm sendo inva...