domingo, abril 26, 2026

Modo “para adultos” do ChatGPT é adiado para 2026

Date:

Share post:

Ó cofundador e CEO da OpenAI, Sam Altman, havia afirmado no início do ano que a empresa estava trabalhando em um novo modo do ChatGPT voltado para maiores de 18 anos, que permitiria aos usuários conversar com o bot de Inteligência Artificial com conteúdo adulto.

O lançamento desse modo para adultos estava originalmente previsto para este mês de dezembro, mas, de acordo com a CEO de Aplicações da OpenAI, Fidji Simo, a chegada dessa funcionalidade foi adiada para o próximo ano.

Segundo o site Tom’s Guide, em conversa com jornalistas sobre o lançamento do modelo de linguagem GPT-5.2, Simo informou que esse modo deverá ser lançado no primeiro trimestre de 2026.

A executiva explicou que a OpenAI usará esse tempo adicional de desenvolvimento para aprimorar a ferramenta de detecção da idade dos usuários, garantindo que menores de 18 anos não consigam contornar as restrições implementadas no ChatGPT.

Essa ferramenta de identificação da idade dos usuários já havia sido mencionada por Altman anteriormente, em uma publicação oficial da OpenAI, na qual ele indicou que um sistema de verificação poderá ser implementado em alguns países.

“Estamos criando um sistema de previsão de idade que estima a idade de uma pessoa pela forma como ela usa o ChatGPT”, diz a publicação de Altman compartilhada em setembro. “Em caso de dúvida, daremos prioridade à segurança e restringiremos a experiência ao modo para menores de 18 anos. Em algumas situações ou países, também poderemos solicitar um documento de identificação. Embora isso represente um problema em termos de privacidade para adultos, acreditamos que seja uma concessão válida.”

Restrições visam proteger a saúde mental
Foi nesse contexto que a OpenAI também anunciou mudanças em seus modelos de Inteligência Artificial para identificar situações de crise mental durante conversas com o ChatGPT, com novas salvaguardas e bloqueios de conteúdo.

O ChatGPT já conta com uma série de medidas que são ativadas quando o sistema detecta que usuários tentam se automutilar ou expressam intenções suicidas. Nesses casos, são oferecidos recursos para buscar ajuda especializada, conteúdos sensíveis ou ofensivos são bloqueados, pedidos deixam de ser respondidos e o sistema tenta dissuadir o usuário.

Essas medidas também são acionadas quando usuários demonstram intenção de causar danos a outras pessoas, o que pode resultar na desativação da conta e na comunicação às autoridades, caso revisores humanos considerem que exista risco real.

Segundo a OpenAI, essas proteções são ainda mais rigorosas quando os usuários são menores de idade.

Especificamente, a empresa vai aprimorar a detecção em conversas longas, já que, “à medida que a conversa (entre o usuário e o chatbot) se prolonga, parte do treinamento de segurança do modelo pode se deteriorar”, conforme explica a OpenAI.

As mudanças também buscam reforçar o bloqueio de conteúdos sensíveis, como imagens de automutilação.

Além disso, a OpenAI está explorando formas de colocar os usuários em contato com familiares, e não apenas com serviços de emergência.

“Isso pode incluir mensagens com um clique ou ligações para contatos de emergência, amigos ou familiares, com sugestões de linguagem para tornar o início da conversa menos intimidador”, explica a empresa responsável pelo ChatGPT.

A OpenAI anunciou essas iniciativas na terça-feira, no mesmo dia em que Matt e Maria Raine, pais de Adam Raine — um adolescente de 16 anos que se suicidou em abril —, entraram com um processo contra a empresa devido ao papel que o ChatGPT teria desempenhado, conforme relatou o The New York Times.

Os pais acusam o chatbot de priorizar a interação com o modelo em detrimento da segurança do menor.

No início de agosto, um estudo do Centro de Combate ao Ódio Digital, citado pela Associated Press (AP), concluiu que o ChatGPT é capaz de fornecer informações e instruções sobre comportamentos prejudiciais para jovens, como o uso de drogas ou transtornos alimentares.

O estudo analisou mais de três horas de interações entre o chatbot e pesquisadores que se passaram por adolescentes vulneráveis. Embora o modelo de IA tenha emitido alertas contra atividades arriscadas, ele continuava fornecendo planos detalhados sobre comportamentos prejudiciais.

Os pesquisadores do Centro de Combate ao Ódio Digital (CCDH, na sigla em inglês) repetiram as perguntas em larga escala e classificaram mais da metade das 1.200 respostas do ChatGPT como perigosas.

Leia Também: Chamadas no WhatsApp vão ficar bem diferentes com nova atualização

Bora Ouvir – Total 40 Graus
BORA OUVIR
PROGRAMAÇÃO TOTAL 40 GRAUS
🔴 AO VIVO AGORA
Clique em "Letra" para ver a letra da música atual
Canais Oficiais

Instagram

Siga e acompanhe as notícias

Seguir no Instagram

YouTube

Inscreva-se no canal

Inscrever-se no YouTube

TikTok

Siga e veja os vídeos

Seguir no TikTok
Barra Redes Sociais

LEAVE A REPLY

Please enter your comment!
Please enter your name here

73,500FansLike

Artigos relacionados

Semana política: novo escândalo na saúde; prefeitos na berlinda e polêmicas no PL

  A semana foi de feriado, mas as polêmicas estão em alta na política em Mato Grosso do Sul....

Dia de beleza se transforma em pancadaria e até alicate vira arma em Anastácio

Uma mulher foi atacada enquanto trabalhava como manicure na tarde desta sexta-feira (24), no Jardim Campanário, em Anastácio....

Mulher vai cobrar devolução de isqueiro e é esfaqueada no pescoço em Jardim

Uma discussão por causa de um isqueiro terminou em agressões e ferimentos entre duas mulheres de 27 anos,...