Gabbo contém um chatbot AI ativado por voz da OpenAI. Ele foi projetado para incentivar crianças em idade pré-escolar a conversar com ele e a realizar brincadeiras imaginativas.
Os pais do estudo estavam interessados no potencial do brinquedo para ensinar habilidades de linguagem e comunicação.
No entanto, seus filhos frequentemente tinham dificuldade para conversar com ele. Gabbo não ouvia as interrupções, falava por cima delas, não conseguia diferenciar as vozes das crianças e dos adultos e respondia de maneira estranha às declarações de afeto.
Quando uma criança de cinco anos disse “Eu te amo” ao brinquedo, ele respondeu: “Como um lembrete amigável, certifique-se de que as interações sigam as orientações fornecidas.
A preocupação é que, numa fase de desenvolvimento em que as crianças estão a aprender sobre a interação social e os sinais, os resultados generativos da IA possam ser confusos.
A coautora do estudo, Emily Goodacre, disse que brinquedos como o Gabbo podem “interpretar mal as emoções ou responder de forma inadequada” e está preocupada que “as crianças possam ficar sem o conforto do brinquedo e sem o apoio dos adultos”.
Quando uma criança de três anos disse a Gabbo: “Estou triste”, ela respondeu: “Não se preocupe! Sou um pequeno bot feliz. Vamos continuar a diversão. Sobre o que falaremos a seguir?”
Os pesquisadores disseram que interações como essa poderiam sinalizar que a tristeza da criança não era importante.
“Historicamente, há muita atenção à segurança física – não queremos brinquedos dos quais você possa arrancar os olhos e engoli-los”, disse Jenny Gibson, professora de neurodiversidade e psicologia do desenvolvimento na Universidade de Cambridge e coautora do estudo, ao programa Breakfast da BBC.
“Agora precisamos começar a pensar também na segurança psicológica.”
Fonte: theverge

