Mais da metade dos consumidores estão preparados para receber ‘conselhos críticos de vida’ da IA | inteligência artificial | confiança na IA | conselhos de vida
Matéria traduzida e adaptada do inglês, publicada pela matriz americana do Epoch Times.
Mais da metade dos consumidores afirmou que confiaria na inteligência artificial (IA) para fornecer “conselhos essenciais para a vida”.
Isso ocorre apesar do fato de que a IA continua a ser atormentada por problemas como preconceito, discriminação, opacidade de seus processos de tomada de decisão e “alucinações” — quando ela chega a uma resposta errada, sem sentido ou enganosa, apesar de parecer plausível.
A pesquisa global Smart Communications de 2025 com mais de 3.000 pessoas, incluindo australianos, descobriu que cerca de metade estaria disposta a aceitar conselhos da IA sobre suas finanças (46%), mudanças no plano de seguro (51%) ou seguir suas recomendações de saúde (54%).
Além disso, a maioria das pessoas está confiante de que a IA lhes dará a resposta correta — apenas 39% expressaram preocupação com possíveis erros.
Ocorreu uma mudança significativa no número de pessoas que acreditam que o uso de IA nas comunicações com os clientes deve ser divulgado.
Em 2024, 77% disseram que gostariam de saber que estavam conversando ou trocando mensagens de texto com um chatbot de IA; este ano, esse número caiu para 37%.
Ainda há preocupações sobre a falta de supervisão humana (44% citaram isso como um problema) e segurança de dados (50%).
As pessoas na região da Ásia-Pacífico têm mais confiança de que a IA terá melhorado significativamente até 2030, com 71% na região concordando, contra 67% nos EUA, 49% entre os falantes de alemão e 46% no Reino Unido.
Como era de se esperar, quanto menor a idade do entrevistado, mais otimista ele estava quanto ao futuro da IA.
Apenas 49% dos baby boomers acreditam que a situação vai melhorar, contra 72% da Geração Z e dos Millennials. A Geração X ficou entre os dois, com 58% de otimismo.
Também houve diferenças significativas de gênero, com 48% dos homens, mas apenas 38% das mulheres confiantes de que a IA não tem problemas éticos, com 52% dos homens neutros ou hesitantes sobre ela, contra 62% das mulheres.
A confiança dos consumidores na precisão da IA está em desacordo com vários estudos científicos, como um recente da Columbia Journalism Review (CJR), que deu a oito ferramentas de IA um trecho de um artigo e pediu que elas identificassem o “título do artigo correspondente, a editora original, a data de publicação e o URL”.
Coletivamente, o estudo descobriu que os chatbots “forneciam respostas incorretas para mais de 60% das consultas”.
“A maioria das ferramentas que testamos apresentou respostas imprecisas com uma confiança alarmante, raramente usando frases qualificadoras como ‘parece’, ‘é possível’ ou ‘talvez’ (…) ou reconhecendo lacunas de conhecimento com declarações como ‘não consegui localizar o artigo exato’”, observou CJR.
Quando a OpenAI lançou sua última atualização, ChatGPT-4.5, a empresa admitiu ter uma taxa de alucinação de 37,1% em seu teste SimpleQA, que faz perguntas curtas e baseadas em fatos.
O CEO da empresa, Sam Altman, já disse anteriormente que alucinar é mais uma característica da IA do que um bug, acrescentando: “muito do valor desses sistemas está fortemente relacionado ao fato de que eles causam alucinações”.
© Direito Autoral. Todos os Direitos Reservados ao Epoch Times Brasil (2005-2024)