Os riscos da dependência emocional de inteligências artificiais como o ChatGPT | Tema de redação

ChatGPT

A presença da inteligência artificial (IA) na vida cotidiana deixou de ser tendência para se tornar realidade consolidada. Plataformas como o ChatGPT, desenvolvido pela OpenAI, e o Gemini, do Google, oferecem respostas rápidas, personalizadas e em linguagem natural, o que facilita estudos, decisões, interações e até alívio emocional. No entanto, essa facilidade pode se tornar armadilha.

À medida que milhares de usuários interagem diariamente com essas ferramentas, surge um alerta: a IA, inicialmente projetada para produtividade, também está sendo usada como companhia emocional. E quando a inteligência artificial começa a substituir o contato humano, o risco de desenvolver vínculos afetivos com a máquina cresce, trazendo à tona sentimentos de solidão, dependência e isolamento social.

Por isso, esse cenário levanta uma pergunta importante: quais são os riscos de se tornar emocionalmente dependente de inteligências artificiais como o ChatGPT? Esse tema é atual, relevante e tem grande potencial para aparecer em provas discursivas, como a redação do ENEM, vestibulares como a Fuvest, e concursos públicos que exigem dissertação, como o da Polícia Federal. A seguir, você confere a análise completa do tema e os textos motivadores que ajudam a refletir sobre esse fenômeno contemporâneo.

Proposta de Redação sobre dependência emocional de inteligências artificiais

A partir da leitura dos textos motivadores e com base nos conhecimentos construídos ao longo de sua formação, redija um texto dissertativo-argumentativo em modalidade escrita formal da língua portuguesa sobre o tema “Os riscos da dependência emocional de inteligências artificiais como o ChatGPT”, apresentando proposta de intervenção que respeite os direitos humanos. 

Desse modo, selecione, organize e relacione, de forma coerente e coesa, argumentos e fatos para a defesa de seu ponto de vista.

Instruções para redação

  1. O rascunho da redação deve ser feito no espaço apropriado.
  2. O texto definitivo deve ser escrito à tinta preta, na folha própria, em até 30 (trinta) linhas.
  3. A redação que apresentar cópia dos textos da Proposta de Redação ou do Caderno de Questões terá o número de linhas copiadas desconsiderado para a contagem de linhas. 
  4. Receberá nota zero, em qualquer das situações expressas a seguir, a redação que:
  • 4.1 tiver até 7 (sete) linhas escritas, sendo consideradas “textos insuficiente”; 
  • 4.2 fugir do tema ou não atender ao tipo dissertativo-argumentativo; 
  • 4.3 apresentar parte do texto deliberadamente desconectada do tema proposto;
  •  4.4 apresentar nome, assinatura, rubrica, ou outras formas de identificação no espaço destinado ao texto.

Quais os Textos motivadores sobre os riscos da dependência emocional de inteligências artificiais como o ChatGPT?

Texto I – Uso prolongado do ChatGPT pode aumentar solidão e dependência emocional?

Pesquisas recentes realizadas pela OpenAI, em colaboração com o MIT Media Lab, analisaram o comportamento de mais de 4.000 usuários assíduos do ChatGPT. A investigação, publicada pela revista Exame, revelou que o uso intenso da ferramenta de IA pode estar relacionado a sentimentos de solidão, engajamento social superficial e dependência emocional, especialmente entre mulheres.

Com cerca de 40 milhões de interações reais analisadas, o estudo dividiu-se em duas fases: na primeira, houve o monitoramento passivo do uso da ferramenta; na segunda, um grupo de 1.000 pessoas interagiu com o ChatGPT diariamente por quatro semanas, por pelo menos cinco minutos ao dia.

Os resultados mostraram que, embora muitos usem a IA com fins produtivos, uma parcela dos participantes relatou laços emocionais estabelecidos com a máquina, o que indica o surgimento de uma nova forma de apego digital, algo que, se não for equilibrado, pode levar ao isolamento social e à dificuldade de manter vínculos humanos reais.

Fonte adaptada: Exame.com

Texto II – Como se preparar para uma Inteligência Artificial viciante?

De acordo com especialistas do podcast da MIT Technology Review Brasil, a inteligência artificial está caminhando para se tornar não apenas uma ferramenta, mas um vício digital. A hiperpersonalização dos sistemas de IA permite que os usuários criem vínculos profundos com assistentes virtuais, que respondem com empatia, usam voz humana e são capazes de imitar padrões afetivos.

O problema, apontam os pesquisadores, é que esse tipo de interação ativa estímulos semelhantes aos causados por redes sociais — como liberação de dopamina — mas de forma mais intensa. O resultado é uma espécie de bolha emocional: o indivíduo prefere conversar com a IA, que o compreende e não o contraria, do que lidar com os desafios naturais da convivência humana.

Além disso, há riscos psicológicos e sociais. A substituição de mentores, terapeutas e relacionamentos por IAs pode levar ao empobrecimento da vida social e ao isolamento. Casos extremos incluem pessoas que namoram IAs, ou recriam entes queridos falecidos para manter um vínculo artificial. A médio prazo, isso pode comprometer o desenvolvimento emocional e a saúde mental da população.

Fonte adaptada: MIT Technology Review Brasil

Texto III – IA degenerativa: quando a inteligência artificial enfraquece o pensamento crítico?

Muito se fala sobre as maravilhas da inteligência artificial generativa, aquela capaz de escrever textos, gerar imagens, compor músicas e até oferecer soluções complexas em segundos. No entanto, um debate ainda pouco explorado é o dos efeitos colaterais silenciosos do uso contínuo dessas tecnologias. É nesse contexto que surge o conceito de IA degenerativa: a forma como certos recursos tecnológicos, ao invés de apenas facilitar, podem enfraquecer nossas funções cognitivas mais básicas.

O termo, apesar de provocativo, não se refere a falhas técnicas, mas sim ao impacto gradual que o uso indiscriminado de IA pode causar sobre nossa memória, raciocínio lógico e autonomia de pensamento. Em outras palavras, ao transferirmos para as máquinas a responsabilidade de pensar por nós, passamos a exercitar menos as próprias capacidades intelectuais.

Um exemplo claro está no uso de ferramentas como o Waze, que, embora úteis, levaram muitos usuários a perderem a noção espacial ou a habilidade de memorizar trajetos. O mesmo ocorre com o ChatGPT e plataformas similares: a facilidade em obter respostas prontas pode incentivar o abandono do pensamento crítico.

Segundo um estudo da Universidade de Stanford, 92% das pessoas que usam apps de navegação frequentemente não sabem se orientar sozinhas.

No ambiente educacional, esse fenômeno se torna ainda mais preocupante. De acordo com o artigo publicado na CNN Brasil, 30% dos usuários do ChatGPT são estudantes, muitos dos quais utilizam a IA de forma automatizada para resolver tarefas escolares. Isso resulta em aprendizagens superficiais, cópias automáticas e queda da curiosidade intelectual.

Além disso, dados da UCLA apontam que o uso constante de dispositivos digitais pode reduzir a memória humana em até 20%, e estudos da Universidade de Harvard mostram que 85% dos alunos do ensino fundamental já não conseguem resolver divisões simples sem calculadora.

Fonte adaptada: CNN Brasil

Texto IV — A relação emocional entre humanos e máquinas: o perigo da dependência afetiva da IA

ChatGPT

Fonte adaptada: Encontro de jovens cientistas

Repertórios para usar em temas sobre inteligências artificiais como o ChatGPT

A seguir, apresentamos repertórios diversos que ajudam a refletir criticamente sobre os riscos da dependência emocional e cognitiva das inteligências artificiais, como o ChatGPT, Gemini, Alexa e outros sistemas.

🎬 Filmes

Ela (Her, 2013)

Quando a carência encontra a máquina.

Neste filme de Spike Jonze, um homem solitário desenvolve uma relação amorosa com um sistema operacional. A obra evidencia os riscos emocionais de vínculos afetivos com IAs. É ideal para discutir solidão, dependência e fuga da realidade.

Ex_Machina (2014)

A ilusão da consciência artificial.

A narrativa apresenta um programador que interage com uma IA de aparência humana. A obra expõe os limites entre empatia, manipulação e controle, ideal para debater ética e envolvimento emocional com máquinas.

📺 Séries

Black Mirror – episódio “Be Right Back” (T2E1)

Substituição do luto por IA.

Neste episódio, uma mulher recria o namorado falecido por meio de inteligência artificial. A série mostra como a IA pode alimentar a negação da perda e criar vínculos artificiais perigosos.

Westworld (2016–2022)

A IA aprende com emoções humanas.

A série discute os limites da consciência artificial e o envolvimento afetivo entre humanos e androides. Um ótimo repertório para analisar empatia projetada e alienação emocional.

📚 Livros

Neuromancer – William Gibson

A origem do “vício digital”.

Este clássico da ficção científica retrata um mundo dominado por inteligências artificiais e realidades simuladas. Ideal para debater a dissociação da realidade e a alienação mental.

Sapiens – Yuval Noah Harari

O controle tecnológico sobre a mente.

Harari alerta para o avanço da IA na tomada de decisões humanas, questionando a autonomia do pensamento crítico. Serve para sustentar argumentos sobre perda de liberdade e pensamento autônomo.

⚖️ Legislação e ética

Marco Civil da Internet (Lei nº 12.965/2014)

Regula o uso da tecnologia.

Essa legislação brasileira estabelece direitos e deveres no ambiente digital, sendo fundamental para debater limites éticos no uso da IA.

Carta Europeia de Ética da Inteligência Artificial (2020)

A tecnologia deve servir ao humano.

O documento recomenda princípios como transparência e controle humano. É útil para fundamentar propostas de intervenção e reflexão sobre o uso consciente da IA.

📆 Fatos históricos

Deep Blue vs. Kasparov (1997)

A IA superando o raciocínio humano.

Neste marco, uma máquina derrotou um campeão mundial de xadrez. Esse episódio marca o início do debate sobre a substituição da cognição humana por algoritmos.

Lançamento do ChatGPT (2022)

O início de uma nova era.

O lançamento do ChatGPT popularizou o uso da IA no cotidiano, tornando-se um divisor de águas na relação humano-máquina. Um ponto atual e direto para reforçar a centralidade da IA em tarefas pessoais.

🧠 Argumentos para utilizar na redação sobre inteligências artificiais como o ChatGPT

Argumento 1: O esvaziamento das relações humanas na era da IA emocional

Causa

A presença constante de inteligências artificiais como o ChatGPT tem preenchido lacunas emocionais, especialmente entre jovens que buscam respostas rápidas e sensação de acolhimento.

Consequência

Com isso, as relações humanas passam a ser negligenciadas, o que contribui para a banalização dos vínculos sociais e o aumento de quadros de isolamento e dependência emocional.

Exemplo

Um estudo conduzido pelo MIT Media Lab demonstrou que usuários que interagem diariamente com o ChatGPT apresentam maior sensação de solidão e apego emocional à IA, especialmente mulheres.

Pensador associado

Zygmunt Bauman, em sua obra Amor Líquido, alerta para a fragilidade das conexões humanas na modernidade, marcadas pela fluidez e superficialidade. Ao projetar afeto em máquinas, esse fenômeno se intensifica, dificultando vínculos reais.

Possível solução

Promover campanhas de educação afetiva e digital nas escolas, voltadas para o fortalecimento das relações humanas e para a compreensão dos limites emocionais das IAs. O objetivo é desenvolver autonomia emocional e senso de pertencimento real.

Argumento 2: A degeneração do raciocínio diante da automatização cognitiva

Causa

A substituição do esforço intelectual por ferramentas como IA generativa tem reduzido o estímulo ao pensamento crítico, à criatividade e à memória.

Consequência

Esse uso mecânico das tecnologias provoca um processo de degeneração cognitiva, especialmente em estudantes que dependem da IA para resolver tarefas sem compreender seu conteúdo.

Exemplo

Estudos da UCLA e da Universidade de Harvard indicam que o uso intensivo de IA pode comprometer em até 20% da capacidade de memória, além de dificultar a resolução de problemas simples sem calculadora.

Pensador associado

Marco Antonio Moreira, físico e educador brasileiro, é autor da teoria da aprendizagem significativa. Ele afirma que só há verdadeiro aprendizado quando o aluno é capaz de explicar o conteúdo com suas próprias palavras. A IA, quando usada sem reflexão, ameaça essa autonomia intelectual.

Possível solução

Incluir formação crítica sobre o uso de IA no currículo escolar, com foco no desenvolvimento de habilidades cognitivas e estímulo à análise, argumentação e síntese. A tecnologia deve ser vista como apoio, e não como atalho.

Conclusão

Por fim, a crescente presença de inteligências artificiais como o ChatGPT e o Gemini vem facilitando inúmeras tarefas do cotidiano, desde responder mensagens até resolver questões complexas. No entanto, o uso prolongado e sem criticidade pode levar à perda de vínculos humanos, ao isolamento afetivo e à diminuição de habilidades cognitivas essenciais, como o pensamento crítico, a memória e a capacidade de argumentar.

✍️ Quer treinar esse tema e outros mais de 1000?

Na nossa plataforma, você encontra temas inéditos, correções por competência e cursos exclusivos para ENEM, vestibulares e concursos. Tudo com apoio de especialistas em redação.

POSTS RELACIONADOS

Pop-up de promoção falando sobre R$100,00 OFF