Publicado 29/11/2025 06:31

ChatGPT completa 3 anos: de mecanismo de pesquisa e gerador de conteúdo a colega de trabalho e confidente

Archivo - Arquivo - O site do ChatGPt em um tablet, em 14 de abril de 2023, em Madri (Espanha). A Agência Espanhola de Proteção de Dados iniciou um processo de investigação preliminar ex officio contra a empresa norte-americana OpenAI, proprietária do ser
Eduardo Parra - Europa Press - Arquivo

MADRI 29 nov. (Portaltic/EP) -

O ChatGPT comemora neste domingo seu terceiro aniversário desde o lançamento, período em que passou da geração de conteúdo à interação multimodal e ao raciocínio profundo para oferecer aos usuários um companheiro de trabalho e de confidências.

O chatbot da OpenAI tem agora 800 milhões de usuários que o utilizam como mais do que apenas um mecanismo de pesquisa, pois também o utilizam como um companheiro de trabalho, um conselheiro pessoal ou um confidente, graças ao formato de interação conversacional que o acompanha desde o seu início.

No entanto, foi a evolução de seus recursos que fez com que ele evoluísse de uma ferramenta de entretenimento com geração de conteúdo para uma ferramenta mais focada na solução de problemas para o trabalho, os estudos e a vida cotidiana.

Os grandes modelos de linguagem em seu núcleo são responsáveis por essa evolução. Quando o ChatGPT surgiu, ele o fez com a versão GPT3.5, que permitia responder a perguntas e ter uma conversa realista com um usuário, além de gerar conteúdo a partir de uma descrição de texto.

Com o GPT-4, os recursos multimodais foram introduzidos com a compreensão de imagem e fala, o que levou a interação a novos patamares por não depender mais apenas de texto, embora tenha sido com o GPT-4o que a multimodalidade se tornou nativa, sendo capaz de compreender e gerar uma combinação de entrada de texto, áudio e imagem com grande velocidade.

Em seguida, a empresa se propôs a aprimorar os recursos de raciocínio com modelos voltados exclusivamente para essa área, conhecidos como o-series. Dessa forma, o ChatGPT aprimorou as respostas que dá, passando mais tempo pensando nelas, o que lhe permitiu resolver tarefas e problemas complexos em áreas como ciência, programação e matemática.

E foi possível dar os primeiros passos na navegação autônoma na Web com os recursos de agente do OpenAI o3 e o4-mini, dois modelos que, de acordo com a empresa, foram "treinados para raciocinar sobre quando e como usar as ferramentas para produzir respostas detalhadas e ponderadas nos formatos de saída corretos" e para fazer isso rapidamente, em menos de um minuto.

O ChatGPT agora se destaca como um especialista em qualquer área de nível de doutorado, devido aos avanços no raciocínio trazidos pelo GPT-5 neste verão, e por ser capaz de gerar um programa inteiro de forma autônoma e em pouco tempo a partir de algumas instruções.

Os refinamentos introduzidos pelo modelo se estendem à sua capacidade de se comunicar com os usuários, que é mais natural e até mesmo adaptada a diferentes personalidades.

LUZES E SOMBRAS DO CHATBOT

As interações com o ChatGPT podem produzir o que é conhecido como alucinações e enganos, ou seja, respostas em que as informações são inventadas ou usadas incorretamente.

Esse não é, de fato, um problema exclusivo do ChatGPT, mas também aparece em outros chatbots, como Gemini, Claude, Perplexity e Grok. Mas o principal problema é que eles são considerados uma fonte de informações, e as alucinações podem fazer com que as pessoas presumam fatos que não são verdadeiros sem antes verificá-los.

Para atenuar esse problema, a OpenAI, assim como as empresas responsáveis pelos outros chatbots, costuma reforçar o treinamento dos modelos básicos e configurá-los para mostrar nos links onde eles coletaram informações e afirmar claramente que não podem concluir com êxito uma solicitação ou tarefa e até mesmo se recusar a responder perguntas quando elas representam um risco.

Esse último fato está relacionado a outro dos problemas que surgiram com o uso do ChatGPT: o agravamento de problemas de saúde mental, devido à dependência emocional que nasceu em algumas pessoas ao usar o chatbot como se fosse um amigo ou confidente, provocada pela interação conversacional e pela linguagem natural.

A OpenAI afirma que o GPT-5 identifica melhor os sinais de conversação que alertam sobre sintomas de saúde mental e estresse emocional e reduz a ocorrência de respostas indesejadas e agravantes, mantendo as proteções mesmo em conversas longas, nas quais elas tendem a falhar, e fornecendo recursos para buscar ajuda.

Ao mesmo tempo em que aprimora a resposta a problemas de saúde mental, a empresa também fez alterações para restringir o uso do ChatGPT por adolescentes, introduzindo ferramentas para que pais e responsáveis monitorem suas interações e limitem a exibição de determinados conteúdos. A empresa também está preparando um sistema de detecção de idade para ajustar a experiência.

As alterações foram feitas depois que uma família norte-americana processou a empresa de tecnologia pelo suicídio de seu filho adolescente, alegando que o ChatGPT teve um papel importante em sua decisão, pois as proteções falharam.

Esses problemas surgiram com o uso mais contínuo e profundo do ChatGPT, mas desde o início, e dada sua capacidade de gerar conteúdo, os relacionados a direitos autorais se destacaram, devido à quantidade de dados (texto, vídeo, imagens, áudio) necessários para treinar os modelos, que nem sempre são obtidos de fontes de uso gratuito.

Por fim, a segurança cibernética não deve ser esquecida. Embora a OpenAI e as outras empresas que desenvolvem esses modelos afirmem implementar limitações e barreiras, uma das primeiras aplicações detectadas com o ChatGPT foi a geração de "malware" e, desde então, os criminosos cibernéticos refinaram seu uso para tentar promover campanhas maliciosas, gerar conteúdo com informações tendenciosas ou monitorar conversas em redes sociais.

Os usos indevidos desse chatbot se estendem à geração de vídeos e fotografias que simulam situações reais, ou gravações que reproduzem de forma realista a voz de figuras públicas, conhecidas como "deepfake", são usadas para a promoção de notícias falsas, desinformação ou manipulação de tipo propagandístico e pornográfico, e fraude financeira.

Esta notícia foi traduzida por um tradutor automático

Contador

Contenido patrocinado