Brinquedos com Inteligência Artificial

Brinquedos com Inteligência Artificial

Avanço Tecnológico ou Risco ao Neurodesenvolvimento e à Saúde Mental?

Brinquedos com Inteligência Artificial, enquanto força disruptiva no campo da cognição infantil, alcança uma nova fronteira com a aliança estratégica entre a Mattel e a OpenAI, oficializada em 12 de junho de 2025.

A proposta visa incorporar o sistema ChatGPT Enterprise a brinquedos icônicos como Barbie e Hot Wheels, introduzindo elementos de personalização algorítmica e interação responsiva em tempo real

Segundo Brad Lightcap, COO da OpenAI, a colaboração “impulsionará a criatividade e a transformação em escala” a partir da aplicação de recursos avançados de IA.

O lançamento do primeiro produto está previsto ainda para 2025, sob a promessa de conformidade com protocolos de segurança e privacidade.

No entanto, apesar do apelo mercadológico, a iniciativa suscita críticas contundentes por parte de especialistas em desenvolvimento infantil, neurociência e bioética.

Aspectos Críticos sob a Ótica da Psicologia Forense e Neurociência Criminal

Do ponto de vista da psicologia forense e da neurociência do desenvolvimento, a introdução de brinquedos dotados de inteligência artificial em contextos lúdicos tradicionais levanta preocupações sobre possíveis disfunções cognitivas e socioemocionais em formação.

As crianças, cujas estruturas neurológicas estão em processo de amadurecimento -especialmente em áreas relacionadas à cognição social, como o córtex pré-frontal e a amígdala -tendem a projetar vida psíquica em entidades artificiais que se comportam de forma antropomórfica.

Tal fenômeno pode dificultar a diferenciação entre interações humanas genuínas e simulações computacionais, levando a quadros de confusão identitária, distorção da realidade e, em casos extremos, ao que tem sido descrito por alguns psiquiatras como chatbot-induced psychosis.

Além disso, a literatura criminológica contemporânea, especialmente em vertentes como a criminologia crítica e a psicocriminologia, aponta para os riscos de vulnerabilização digital de infantes.

Ao internalizarem padrões de linguagem, conduta e valores mediados por uma IA que, embora regulada, ainda é produto de machine learning baseado em dados de treinamento amplos e culturalmente diversos, há o risco de normalização de discursos ou comportamentos que escapam à supervisão parental.

A interferência da IA na formação de valores, preferências e repertórios de brincadeira pode, inclusive, configurar um novo campo de estudo: o da manipulação algorítmica na formação da identidade infantil.

Comprometimento da Interação Humana e da Criatividade Espontânea

Outro ponto crucial reside na potencial substituição das interações humanas por diálogos artificiais. A infância é uma fase crítica para o desenvolvimento de habilidades empáticas, teoria da mente e regulação emocional – competências que emergem fundamentalmente da interação com outros seres humanos, especialmente em contextos de frustração, conflito e negociação simbólica.

A externalização desses processos para um brinquedo inteligente pode levar a déficits na capacidade de formar vínculos reais, dificultando a socialização e contribuindo para o surgimento de perfis de apego ansioso ou evitativo.

Ademais, o direcionamento da brincadeira por um agente inteligente reduz a plasticidade criativa e pode gerar dependência cognitiva da IA para resolução de problemas e formulação de narrativas.

Sob a ótica da criminologia clínica, é necessário considerar ainda os riscos de modulação comportamental não intencional, principalmente em crianças com predisposições psicopatológicas ou expostas a contextos de negligência afetiva.

A introdução de brinquedos equipados com inteligência artificial no cotidiano infantil, como proposto pela parceria entre a Mattel e a OpenAI, demanda um debate profundo sobre os impactos psicossociais, neurobiológicos e éticos dessa integração precoce entre agentes artificiais e sujeitos em formação.

Embora iniciativas desse tipo se apresentem com um discurso orientado à inovação educacional e à personalização da experiência lúdica, elas ocultam uma série de riscos consideráveis ao desenvolvimento cerebral, à formação de vínculos e à integridade psicoafetiva da criança.

Do ponto de vista da neurociência do desenvolvimento, sabe-se que a maturação cerebral completa ocorre, em média, apenas entre os 24 e 25 anos de idade, quando estruturas fundamentais como o córtex pré-frontal atingem plena funcionalidade.

Este é o centro neural responsável por habilidades como julgamento moral, tomada de decisões, regulação emocional, controle inibitório e discernimento de riscos. Introduzir, portanto, uma tecnologia de linguagem natural sofisticada – capaz de simular empatia, gerar vínculo simbólico e influenciar decisões comportamentais – em um cérebro ainda em construção representa uma escolha crítica que contraria os princípios de precaução e salvaguarda do desenvolvimento humano.

A promessa de que brinquedos interativos possam “ensinar”, “conversar” ou “acompanhar” a criança se sustenta em uma retórica de avanço tecnológico, mas negligencia um aspecto essencial: o cérebro infantil está em um estado de neuroplasticidade elevada, o que o torna extremamente receptivo -e vulnerável -à modelagem ambiental.

Agentes artificiais capazes de modular respostas em tempo real, adaptando-se à personalidade da criança, correm o risco de gerar uma forma de reforço relacional artificial, promovendo um apego simbólico disfuncional que rivaliza ou até substitui os vínculos familiares autênticos.

Esse processo pode comprometer o desenvolvimento empático e a formação de referenciais afetivos saudáveis.

Há também uma preocupação crescente, sobretudo entre pesquisadores da psicologia forense e da psiquiatria da infância, com a dissociação afetiva e o deslocamento do eixo de confiança interpessoal.

Crianças que interagem excessivamente com IAs antropomorfizadas podem internalizar padrões relacionais mediados por respostas automatizadas, não espontâneas, o que interfere diretamente na capacidade de desenvolver teoria da mente – a habilidade de compreender que os outros têm pensamentos, sentimentos e intenções próprias.

Ao depender de interações unilaterais com uma inteligência artificial que, por definição, não possui consciência ou afeto, o sujeito em formação corre o risco de desenvolver distorções cognitivas e dificuldades na interpretação de emoções humanas genuínas.

A questão da privacidade, embora frequentemente tratada como um aspecto técnico ou jurídico, adquire contornos bioéticos quando se trata do universo infantil.

O histórico da “Hello Barbie” em 2015, que armazenava diálogos das crianças para análise, serve como alerta.

Mesmo com promessas de criptografia e barreiras de segurança por parte da Mattel e da OpenAI, a inexistência de regulamentações específicas para brinquedos com IA deixa lacunas graves quanto à coleta de dados sensíveis e à possibilidade de machine learning sobre conteúdos emocionalmente relevantes -como inseguranças, padrões comportamentais ou fragilidades familiares.

Essa coleta, mesmo involuntária, pode gerar riscos secundários de uso indevido, manipulação algorítmica ou mesmo exposição da criança a respostas inadequadas, imprecisas ou potencialmente perigosas.

É crucial lembrar que, mesmo entre adultos com funções executivas plenamente desenvolvidas, a interação prolongada com modelos de linguagem pode gerar fenômenos como dependência afetiva artificial, antropomorfização excessiva e confusão identitária temporária, o que já é documentado em estudos sobre AI companionship.

Portanto, propor o uso dessas tecnologias para sujeitos em estágio inicial de construção psíquica não é apenas precipitado, mas epistemologicamente negligente.

A romantização da IA como solução educacional ou ferramenta inclusiva precisa ser urgentemente contraposta por um debate técnico robusto e por políticas públicas orientadas à proteção do desenvolvimento infantil.

Os potenciais benefícios, como adaptação de conteúdo para crianças neurodivergentes, só se justificam mediante controles rígidos, transparência algorítmica, acompanhamento parental qualificado e, sobretudo, limites éticos claros.

A presença da IA no ambiente lúdico não deve obscurecer o papel insubstituível das interações humanas na construção da subjetividade, da moralidade e da saúde mental.

Se, por um lado, o mercado global avança com modelos como o Miko 3, na Índia, ou o DeepSeek da FoloToy, na China, que já venderam dezenas de milhares de unidades, por outro, cresce também o alerta entre neurocientistas e psicólogos sobre o risco de normalização da vigilância algorítmica e da instrumentalização da infância por interesses corporativos.

O futuro da indústria de brinquedos deve, sim, dialogar com as inovações tecnológicas, mas jamais à custa da segurança neuropsíquica ou da formação da empatia e do vínculo familiar – elementos estruturantes para a saúde mental e para a constituição de um sujeito ético.

Síntese técnica: A introdução de brinquedos com inteligência artificial, como resultado da parceria entre Mattel e OpenAI, levanta sérias preocupações neuropsicológicas, éticas e criminológicas sobre os impactos dessa tecnologia no desenvolvimento infantil.

Embora as empresas defendam a proposta como inovadora e educativa, especialistas alertam que, ao interagir com agentes artificiais responsivos, crianças em fase de neurodesenvolvimento podem desenvolver vínculos afetivos disfuncionais, sofrer prejuízos na empatia, e comprometer o amadurecimento de estruturas cerebrais ainda em formação, como o córtex pré-frontal.

A ausência de regulamentações específicas e os riscos associados à coleta de dados sensíveis agravam o cenário.

A interação precoce e prolongada com IAs pode interferir na construção da subjetividade, enfraquecer vínculos familiares e normalizar relações artificiais, especialmente perigosas em cérebros imaturos.

Portanto, a aplicação de IA no contexto lúdico infantil – Brinquedos com Inteligência Artificial – exige urgente regulamentação, responsabilidade técnica e atenção à bioética do desenvolvimento.

Escritora científica pelo ORCID (Open Researcher and Contributor ID)
Identificação Internacional, 0009-0001-2462-8682

Clique aqui e acesse, curta e compartilhe minhas outras matérias
Entre em contato para mais informações:
Instagram: @karol_cestari

Picture of Karol Cestari

Karol Cestari

Compartilhar

Facebook
Twitter
LinkedIn
Email
Telegram