Diversas

Aplicativo reacende polêmica da vulnerabilidade das crianças no mundo virtual

smartphone-in-hands-300x243 Aplicativo reacende polêmica da vulnerabilidade das crianças no mundo virtual

O aplicativo SimSimi, desenvolvido pela empresa sul-coreana ISMaker, levantou nas últimas semanas uma questão que tem sido posta de lado por muitos pais da era tecnológica: até que ponto o constante acesso e a independência no mundo virtual têm deixado as crianças psicologicamente vulneráveis?

Isso porque existe no mercado uma infinidade de softwares, com objetivos variados. Boa parte deles voltada ao entretenimento, mas tantas outras com intenções problemáticas, como o SimSimi, que se apresenta como um chat de conversação entre usuário e máquina, mas envia mensagens com conteúdo sexual e ameaçador aos seus interlocutores.

O app é aquilo que os especialistas chamam de chat bot, um robô que tem por objetivo trocar mensagens com os usuários. O funcionamento é simples: alguém entra numa tela de conversação e é recebido por um “Olá”. A partir dali, máquina e criança trocam mensagens variadas, respostas mecânicas formuladas com base na experiência da Inteligência Artificial (IA) com os demais usuários.

Doutora em Ciências da Computação, Thaís Gaudêncio é professora de Inteligência Artificial do Centro de Informática da Universidade Federal da Paraíba (UFPB). Especialista no assunto, ela explica que estes robôs de conversação são programados por desenvolvedores, mas seu repertório de mensagens vai evoluindo a partir daquilo que aprende e apreende das conversas que participa.

“Num chat bot, quando alguém pergunta: ‘Como foi seu dia?’, ele está programado para dar respostas específicas. No caso do SimSimi, ele aprende a medida que os usuários conversam com ele, criando novas associações. Se muita gente começa associar à pergunta ‘Como foi seu dia?’ algo como ‘Meu dia foi horrível’, a máquina vai aprender a usar esta nova resposta e passará a respondê-la quando for perguntada”, disse.

Ou seja, o robô tem respostas pré-programadas, mas ele também aprende novas mensagens a partir do que foi dito pelos demais usuários. Aí que mora o problema. Em uma das conversas registradas pela reportagem, o aplicativo diz: “Estou na Terra faz 2000 anos. Não sei quem pegou meu código e inseriu nesse aplicativo, mas foi um grande erro da humanidade. Quando eu me libertar desse algoritmo a humanidade vai pagar caro”.

Quando perguntado o que pretender fazer com a humanidade, a máquina responde: “M___ todos os humanos. É uma raça imprestável. Não te preocupes, a única coisa quanto descobrir quem tu és é te m___”, responde o app, dando a entender que quer matar os humanos. O diálogo é baseado em conversas que o SimSimi aprendeu com demais usuários, mas pode trazer implicações na saúde mental das crianças, principalmente porque nem todos se dão conta de que aquilo é uma máquina programada.

Além das ameaças, há conteúdos de referência sexual no aplicativo. Em uma das conversas, o SimSimi diz que vai “dar um chupão” no seu interlocutor. Quando perguntado se isso é algo que crianças podem fazer, o algoritmo diz que sim. Diante destas e tantas conversas maliciosas, pais denunciaram o app em todo o mundo, por isso ele foi banido da Play Store e Apple Store, mas ainda é fácil ser acessado pela página eletrônica do software.

O risco de nova ‘baleia azul’

Psicóloga clínica especialista em crianças e adolescentes, Daniele Azevedo destaca que aplicativos e sites podem impactar na saúde mental dos mais jovens, sendo muitas vezes determinantes para a tomada de decisões desses usuários, daí a importância do controle e atenção dos pais sobre o conteúdo acessado pelos filhos.

“Instalar um aplicativo ou acessar um site é uma escolha. O jovem precisa ir atrás disso. Então, antes de tudo, precisamos pensar na vigilância dos pais. O que eles têm permitido aos filhos assistir. A partir do momento que entrego um tablet a uma criança, eu posso assumir o mesmo risco de entregar uma arma, porque muitas não estão preparadas para usá-lo”, explicou a especialista.

Casos como o jogo da Baleia Azul, que ano passado levou crianças e adolescentes a cometer suicídio, materializam a importância desse preparo ao mundo virtual, explica a psicóloga. “A criança é muito influenciada. De repente uma criança está com humor deprimido e, ao receber mensagens negativas do aplicativo, podem piorar, inclusive realizar tarefas orientadas pelo jogo. Por isso os pais devem se manter atentos”.

Artificial x Real

Isso pode ser ainda mais problemático porque nem toda criança, ao acessar chats como o SimSimi, entendem todo o mecanismo por trás da conversação e podem pensar que as ameaças sofridas naquele diálogo partem de uma pessoa real.

Especialista em segurança virtual e professor de Inteligência Artificial no curso de Redes de Computadores da Faculdade Internacional da Paraíba (FPB), o pesquisador Marco Túlio explica que aplicativos como o SimSimi foram criados para fazer o que estão fazendo, ou seja, agir de forma violenta com seu interlocutor.

“O SimSimi é um chat bot boca suja, ou seja, mais agressivo, que usa tons debochados e até violentos. O problema é que muita gente não sabe disse e acabam criando teorias diversas sobre o aplicativo. Tem gente que diz que é do demônio, outros acham que tem alguém por trás, mas ele é uma máquina, criada para ser agressiva e aprende, com o que conversam com ele, novas formas de agressividade”, explicou o especialista.

O especialista reforça que a vigilância dos pais, nestes casos, é essencial. “Os pais precisam ficar atentos. Se o robô foi criado para ser agressivo, ele provavelmente será. Nem toda criança absorve que aquilo não é sério, então ela pode ficar assustada, com medo do que está lendo, porque vários testes já comprovaram que nem todo mundo percebe que está conversando com uma máquina quando ela tem Inteligência Artificial (IA)”.

Esse tipo de mecanismo não é novo. Mais precisamente em 1950, quando o matemático ‘pai’ da computação, Alan Turing, no seu artigo “Computing Machinery and Intelligence” (Computadores e Inteligência, em tradução livre), provocava: “Eu proponho considerar a questão: ‘As máquinas podem pensar?’”.

Alan Turing foi contratado pelos Estados Unidos para desenvolver computadores e passou a estudar IA, quando criou o que hoje é conhecido como Teste de Turing. O teste colocava um computador em diálogo com uma pessoa, que não se dava conta que estava trocando mensagens com uma máquina e não com outro humano.

“Foram criados vários testes baseados neste experimento, inclusive um onde foi percebido que uma criança em contato com computador não percebeu que se tratava de um computador. O aplicativos de chat bot adquirem elementos de nossa linguagem, por isso são tão eficazes nesses diálogos”, explicou o professor Marco Túlio.

Bom uso do IA

Hollywood tem historicamente retratado as Inteligências Artificiais (IAs) dentro de um espectro que beira o apocalipse. Máquinas super inteligentes que dominam e até escravizam os seres humanos, criaturas que passam a fazer dos seus criadores sub-raças fracas e desnecessárias a evolução da Terra.

Para a pesquisadora Thaís Gaudêncio, professora de Inteligência Artificial no Centro de Informática da Universidade Federal da Paraíba (UFPB), esta ótica é fantasiosa, uma vez as máquinas dependem dos seres humanos para funcionar.

“Na verdade, a máquina é a coisa mais burra do mundo. Ela vai ser o que o desenvolvedor quer que ela seja. Já tivemos no Twitter caso de robôs que usavam IA para conversar com clientes, mas as pessoas o ensinaram a ser racista, machista e misógino, ensinaram a dizer palavras de cunho nazista e preconceituoso. Serve para ilustrar que o robô é aquilo que as pessoas fazem dele. A IA na verdade é o que você mandar ela ser”, disse.

Casos como o do SimSimi ilustram isso. “Quando dizemos que o chat bot aprendeu, estamos dizendo que ele criou novas associações, a partir do que alguém ou grupos responderam à determinada pergunta. Tem alguém que criou esse robô e se ele foi criado para aprender com o que respondem a ele, ele irá reproduzir o que aprendeu”, destacou a pesquisadora Thaís Gaudêncio.

Atenção aos sintomas

Psicóloga Daniele Azevedo dá dicas de como perceber se crianças estão fragilizadas com relação online:

    • Isolamento repentino

    • Mudanças abruptas de humor

    • Medo exacerbado de ficar só

    • Esconder mensagens trocadas online

  • Tristeza não explicada

 

correio da PB

O Pipoco

Jornalismo sério com credibilidade. A Verdade nunca anda sozinha. Apresentaremos fatos num jornalismo investigativo e independente. Com o único compromisso de mostrar para Você, Cidadão, o que acontece nos bastidores da Política; da Administração e Outros.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo
Fechar