Brinquedos com Inteligência Artificial

Brinquedos com Inteligência Artificial

Avanço Tecnológico ou Risco ao Neurodesenvolvimento e à Saúde Mental?

Brinquedos com Inteligência Artificial, enquanto força disruptiva no campo da cognição infantil, alcança uma nova fronteira com a aliança estratégica entre a Mattel e a OpenAI, oficializada em 12 de junho de 2025.

A proposta visa incorporar o sistema ChatGPT Enterprise a brinquedos icônicos como Barbie e Hot Wheels, introduzindo elementos de personalização algorítmica e interação responsiva em tempo real

Segundo Brad Lightcap, COO da OpenAI, a colaboração “impulsionará a criatividade e a transformação em escala” a partir da aplicação de recursos avançados de IA.

O lançamento do primeiro produto está previsto ainda para 2025, sob a promessa de conformidade com protocolos de segurança e privacidade.

No entanto, apesar do apelo mercadológico, a iniciativa suscita críticas contundentes por parte de especialistas em desenvolvimento infantil, neurociência e bioética.

Aspectos Críticos sob a Ótica da Psicologia Forense e Neurociência Criminal

Do ponto de vista da psicologia forense e da neurociência do desenvolvimento, a introdução de brinquedos dotados de inteligência artificial em contextos lúdicos tradicionais levanta preocupações sobre possíveis disfunções cognitivas e socioemocionais em formação.

As crianças, cujas estruturas neurológicas estão em processo de amadurecimento -especialmente em áreas relacionadas à cognição social, como o córtex pré-frontal e a amígdala -tendem a projetar vida psíquica em entidades artificiais que se comportam de forma antropomórfica.

Tal fenômeno pode dificultar a diferenciação entre interações humanas genuínas e simulações computacionais, levando a quadros de confusão identitária, distorção da realidade e, em casos extremos, ao que tem sido descrito por alguns psiquiatras como chatbot-induced psychosis.

Além disso, a literatura criminológica contemporânea, especialmente em vertentes como a criminologia crítica e a psicocriminologia, aponta para os riscos de vulnerabilização digital de infantes.

Ao internalizarem padrões de linguagem, conduta e valores mediados por uma IA que, embora regulada, ainda é produto de machine learning baseado em dados de treinamento amplos e culturalmente diversos, há o risco de normalização de discursos ou comportamentos que escapam à supervisão parental.

A interferência da IA na formação de valores, preferências e repertórios de brincadeira pode, inclusive, configurar um novo campo de estudo: o da manipulação algorítmica na formação da identidade infantil.

Comprometimento da Interação Humana e da Criatividade Espontânea

Outro ponto crucial reside na potencial substituição das interações humanas por diálogos artificiais. A infância é uma fase crítica para o desenvolvimento de habilidades empáticas, teoria da mente e regulação emocional – competências que emergem fundamentalmente da interação com outros seres humanos, especialmente em contextos de frustração, conflito e negociação simbólica.

A externalização desses processos para um brinquedo inteligente pode levar a déficits na capacidade de formar vínculos reais, dificultando a socialização e contribuindo para o surgimento de perfis de apego ansioso ou evitativo.

Ademais, o direcionamento da brincadeira por um agente inteligente reduz a plasticidade criativa e pode gerar dependência cognitiva da IA para resolução de problemas e formulação de narrativas.

Sob a ótica da criminologia clínica, é necessário considerar ainda os riscos de modulação comportamental não intencional, principalmente em crianças com predisposições psicopatológicas ou expostas a contextos de negligência afetiva.

A introdução de brinquedos equipados com inteligência artificial no cotidiano infantil, como proposto pela parceria entre a Mattel e a OpenAI, demanda um debate profundo sobre os impactos psicossociais, neurobiológicos e éticos dessa integração precoce entre agentes artificiais e sujeitos em formação.

Embora iniciativas desse tipo se apresentem com um discurso orientado à inovação educacional e à personalização da experiência lúdica, elas ocultam uma série de riscos consideráveis ao desenvolvimento cerebral, à formação de vínculos e à integridade psicoafetiva da criança.

Do ponto de vista da neurociência do desenvolvimento, sabe-se que a maturação cerebral completa ocorre, em média, apenas entre os 24 e 25 anos de idade, quando estruturas fundamentais como o córtex pré-frontal atingem plena funcionalidade.

Este é o centro neural responsável por habilidades como julgamento moral, tomada de decisões, regulação emocional, controle inibitório e discernimento de riscos. Introduzir, portanto, uma tecnologia de linguagem natural sofisticada – capaz de simular empatia, gerar vínculo simbólico e influenciar decisões comportamentais – em um cérebro ainda em construção representa uma escolha crítica que contraria os princípios de precaução e salvaguarda do desenvolvimento humano.

A promessa de que brinquedos interativos possam “ensinar”, “conversar” ou “acompanhar” a criança se sustenta em uma retórica de avanço tecnológico, mas negligencia um aspecto essencial: o cérebro infantil está em um estado de neuroplasticidade elevada, o que o torna extremamente receptivo -e vulnerável -à modelagem ambiental.

Agentes artificiais capazes de modular respostas em tempo real, adaptando-se à personalidade da criança, correm o risco de gerar uma forma de reforço relacional artificial, promovendo um apego simbólico disfuncional que rivaliza ou até substitui os vínculos familiares autênticos.

Esse processo pode comprometer o desenvolvimento empático e a formação de referenciais afetivos saudáveis.

Há também uma preocupação crescente, sobretudo entre pesquisadores da psicologia forense e da psiquiatria da infância, com a dissociação afetiva e o deslocamento do eixo de confiança interpessoal.

Crianças que interagem excessivamente com IAs antropomorfizadas podem internalizar padrões relacionais mediados por respostas automatizadas, não espontâneas, o que interfere diretamente na capacidade de desenvolver teoria da mente – a habilidade de compreender que os outros têm pensamentos, sentimentos e intenções próprias.

Ao depender de interações unilaterais com uma inteligência artificial que, por definição, não possui consciência ou afeto, o sujeito em formação corre o risco de desenvolver distorções cognitivas e dificuldades na interpretação de emoções humanas genuínas.

A questão da privacidade, embora frequentemente tratada como um aspecto técnico ou jurídico, adquire contornos bioéticos quando se trata do universo infantil.

O histórico da “Hello Barbie” em 2015, que armazenava diálogos das crianças para análise, serve como alerta.

Mesmo com promessas de criptografia e barreiras de segurança por parte da Mattel e da OpenAI, a inexistência de regulamentações específicas para brinquedos com IA deixa lacunas graves quanto à coleta de dados sensíveis e à possibilidade de machine learning sobre conteúdos emocionalmente relevantes -como inseguranças, padrões comportamentais ou fragilidades familiares.

Essa coleta, mesmo involuntária, pode gerar riscos secundários de uso indevido, manipulação algorítmica ou mesmo exposição da criança a respostas inadequadas, imprecisas ou potencialmente perigosas.

É crucial lembrar que, mesmo entre adultos com funções executivas plenamente desenvolvidas, a interação prolongada com modelos de linguagem pode gerar fenômenos como dependência afetiva artificial, antropomorfização excessiva e confusão identitária temporária, o que já é documentado em estudos sobre AI companionship.

Portanto, propor o uso dessas tecnologias para sujeitos em estágio inicial de construção psíquica não é apenas precipitado, mas epistemologicamente negligente.

A romantização da IA como solução educacional ou ferramenta inclusiva precisa ser urgentemente contraposta por um debate técnico robusto e por políticas públicas orientadas à proteção do desenvolvimento infantil.

Os potenciais benefícios, como adaptação de conteúdo para crianças neurodivergentes, só se justificam mediante controles rígidos, transparência algorítmica, acompanhamento parental qualificado e, sobretudo, limites éticos claros.

A presença da IA no ambiente lúdico não deve obscurecer o papel insubstituível das interações humanas na construção da subjetividade, da moralidade e da saúde mental.

Se, por um lado, o mercado global avança com modelos como o Miko 3, na Índia, ou o DeepSeek da FoloToy, na China, que já venderam dezenas de milhares de unidades, por outro, cresce também o alerta entre neurocientistas e psicólogos sobre o risco de normalização da vigilância algorítmica e da instrumentalização da infância por interesses corporativos.

O futuro da indústria de brinquedos deve, sim, dialogar com as inovações tecnológicas, mas jamais à custa da segurança neuropsíquica ou da formação da empatia e do vínculo familiar – elementos estruturantes para a saúde mental e para a constituição de um sujeito ético.

Síntese técnica: A introdução de brinquedos com inteligência artificial, como resultado da parceria entre Mattel e OpenAI, levanta sérias preocupações neuropsicológicas, éticas e criminológicas sobre os impactos dessa tecnologia no desenvolvimento infantil.

Embora as empresas defendam a proposta como inovadora e educativa, especialistas alertam que, ao interagir com agentes artificiais responsivos, crianças em fase de neurodesenvolvimento podem desenvolver vínculos afetivos disfuncionais, sofrer prejuízos na empatia, e comprometer o amadurecimento de estruturas cerebrais ainda em formação, como o córtex pré-frontal.

A ausência de regulamentações específicas e os riscos associados à coleta de dados sensíveis agravam o cenário.

A interação precoce e prolongada com IAs pode interferir na construção da subjetividade, enfraquecer vínculos familiares e normalizar relações artificiais, especialmente perigosas em cérebros imaturos.

Portanto, a aplicação de IA no contexto lúdico infantil – Brinquedos com Inteligência Artificial – exige urgente regulamentação, responsabilidade técnica e atenção à bioética do desenvolvimento.

Escritora científica pelo ORCID (Open Researcher and Contributor ID)
Identificação Internacional, 0009-0001-2462-8682

Clique aqui e acesse, curta e compartilhe minhas outras matérias
Entre em contato para mais informações:
Instagram: @karol_cestari

Foto de Karol Cestari

Karol Cestari

Compartilhar

Aproveite descontos exclusivos do clube aEmpreendedora

Faça seu pré-cadastro abaixo e receba no seu whatsapp e e-mail descontos imperdíveis.

Últimas publicações

Obtenha o seu selo de sustentabilidade com
a aEco Carbon free

Promoções indicadas
pela aEmpreendedora

aE - Projetor 4K HD 150 Polegadas Celular, Tv B0x, Xbox, PS, Pc, Wifi HY300 Pro Magcubic

Projetor 4K HD 150 Polegadas Celular, Tv B0x, Xbox, PS, Pc, Wifi HY300 Pro Magcubic

aE - iPhone 17 Pro - 17 Pro Max 256GB - 512GB - Novo Original NF Lacrado

iPhone 17 Pro – 17 Pro Max 256GB – 512GB – Novo Original NF Lacrado

aE - Sombra e Iluminador com Brilho 2 em 1

Sombra e Iluminador com Brilho 2 em 1, À Prova D’água, De Longa Duração, Coreano

aE - Batons Matte Impermeáveis CMaaDu 18 Cores, Longa Duração

Batons Matte Impermeáveis CMaaDu 18 Cores, Longa Duração

aE - Lápis de Sobrancelha Líquido à Prova D'água de 5 Cores - Longa Duração

Lápis de Sobrancelha Líquido à Prova D’água de 5 Cores – Longa Duração

aE - Lancome Lancôme La Vie Est Belle Edp Perfume Feminino

Lancome Lancôme La Vie Est Belle Edp Perfume Feminino