Com que frequência se deparou com uma imagem online e questionou: "Real ou IA"? Já se sentiu preso numa realidade onde conteúdo criado por IA e conteúdo feito por humanos se confundem? Ainda precisamos de distinguir entre eles?
A inteligência artificial desbloqueou um mundo de possibilidades criativas, mas também trouxe novos desafios, reformulando a forma como percecionamos o conteúdo online. Desde imagens, música e vídeos gerados por IA a inundar as redes sociais até deepfakes e bots a enganar utilizadores, a IA toca agora uma vasta parte da internet.
De acordo com um estudo da Graphite, a quantidade de conteúdo feito por IA ultrapassou o conteúdo criado por humanos no final de 2024, principalmente devido ao lançamento do ChatGPT em 2022. Outro estudo sugere que mais de 74,2% das páginas na sua amostra continham conteúdo gerado por IA em abril de 2025.
À medida que o conteúdo gerado por IA se torna mais sofisticado e quase indistinguível do trabalho feito por humanos, a humanidade enfrenta uma questão premente: Quanto podem os utilizadores realmente identificar o que é real ao entrarmos em 2026?
Fadiga de conteúdo de IA instala-se: A procura por conteúdo feito por humanos está a aumentar
Após alguns anos de entusiasmo em torno da "magia" da IA, os utilizadores online têm experimentado cada vez mais fadiga de conteúdo de IA, um esgotamento coletivo em resposta ao ritmo implacável da inovação em IA.
De acordo com um inquérito do Pew Research Center, uma mediana de 34% dos adultos globalmente estavam mais preocupados do que entusiasmados com o aumento do uso de IA num inquérito da primavera de 2025, enquanto 42% estavam igualmente preocupados e entusiasmados.
"A fadiga de conteúdo de IA foi citada em múltiplos estudos à medida que a novidade do conteúdo gerado por IA está lentamente a desaparecer, e na sua forma atual, muitas vezes parece previsível e disponível em abundância", disse Adrian Ott, diretor de IA da EY Suíça, ao Cointelegraph.
Fonte: Pew Research"De certo modo, o conteúdo de IA pode ser comparado a comida processada", afirmou, traçando paralelos entre a forma como ambos estes fenómenos evoluíram.
"Quando se tornou possível pela primeira vez, inundou o mercado. Mas com o tempo, as pessoas começaram a voltar para comida local e de qualidade onde conhecem a origem", disse Ott, acrescentando:
Ott sugeriu que etiquetas como "feito por humanos" podem surgir como sinais de confiança em conteúdo online, semelhante a "orgânico" em alimentos.
Gerir conteúdo de IA: Certificar conteúdo real entre abordagens funcionais
Embora muitos possam argumentar que a maioria das pessoas consegue identificar texto ou imagens de IA sem esforço, a questão de detetar conteúdo criado por IA é mais complicada.
Um estudo da Pew Research de setembro descobriu que pelo menos 76% dos americanos dizem que é importante conseguir identificar conteúdo de IA, e apenas 47% estão confiantes de que o conseguem detetar com precisão.
"Enquanto algumas pessoas caem em fotos, vídeos ou notícias falsas, outras podem recusar-se a acreditar em qualquer coisa ou convenientemente descartar filmagens reais como 'geradas por IA' quando não se enquadram na sua narrativa", disse Ott da EY, destacando as questões de gerir conteúdo de IA online.
Fonte: Pew ResearchDe acordo com Ott, os reguladores globais parecem estar a seguir na direção de etiquetar conteúdo de IA, mas "haverá sempre formas de contornar isso". Em vez disso, sugeriu uma abordagem inversa, onde o conteúdo real é certificado no momento em que é capturado, para que a autenticidade possa ser rastreada até um evento real em vez de tentar detetar falsificações após o facto.
O papel da blockchain na determinação da "prova de origem"
"Com os meios sintéticos a tornarem-se mais difíceis de distinguir das filmagens reais, confiar na autenticação após o facto já não é eficaz", disse Jason Crawforth, fundador e CEO da Swear, uma startup que desenvolve software de autenticação de vídeo.
"A proteção virá de sistemas que incorporam confiança no conteúdo desde o início", disse Crawforth, sublinhando o conceito-chave da Swear, que garante que os meios digitais são confiáveis desde o momento em que são criados usando tecnologia blockchain.
O software de autenticação de vídeo da Swear foi nomeado Melhor Invenção de 2025 pela revista Time na categoria Criptomoeda e Blockchain. Fonte: Revista TimeO software de autenticação da Swear emprega uma abordagem de impressão digital baseada em blockchain, onde cada peça de conteúdo é ligada a um registo blockchain para fornecer prova de origem — um "ADN digital" verificável que não pode ser alterado sem deteção.
"Qualquer modificação, por mais discreta que seja, torna-se identificável ao comparar o conteúdo com o seu original verificado por blockchain na plataforma Swear", disse Crawforth, acrescentando:
Até agora, a tecnologia da Swear tem sido usada entre criadores digitais e parceiros empresariais, visando principalmente meios visuais e áudio através de dispositivos de captura de vídeo, incluindo câmaras corporais e drones.
"Embora a integração nas redes sociais seja uma visão a longo prazo, o nosso foco atual está na indústria de segurança e vigilância, onde a integridade do vídeo é crítica para a missão", disse Crawforth.
Perspetiva para 2026: Responsabilidade das plataformas e pontos de inflexão
À medida que entramos em 2026, os utilizadores online estão cada vez mais preocupados com o volume crescente de conteúdo gerado por IA e a sua capacidade de distinguir entre meios sintéticos e criados por humanos.
Embora os especialistas em IA enfatizem a importância de etiquetar claramente conteúdo "real" versus meios criados por IA, permanece incerto quão rapidamente as plataformas online reconhecerão a necessidade de priorizar conteúdo confiável e feito por humanos à medida que a IA continua a inundar a internet.
A editora de dicionários Merriam-Webster nomeou slop como palavra de 2025 em meio às preocupações com conteúdo de IA. Fonte: Merriam-Webster"Em última análise, é responsabilidade dos fornecedores de plataformas dar aos utilizadores ferramentas para filtrar conteúdo de IA e apresentar material de alta qualidade. Se não o fizerem, as pessoas irão embora", disse Ott. "Neste momento, não há muito que os indivíduos possam fazer por conta própria para remover conteúdo gerado por IA dos seus feeds — esse controlo reside em grande parte nas plataformas."
À medida que a procura por ferramentas que identifiquem meios feitos por humanos cresce, é importante reconhecer que a questão central muitas vezes não é o conteúdo de IA em si, mas as intenções por trás da sua criação. Deepfakes e desinformação não são fenómenos inteiramente novos, embora a IA tenha aumentado dramaticamente a sua escala e velocidade.
Relacionado: A rede do Texas está a aquecer novamente, desta vez pela IA, não por mineradores de Bitcoin
Com apenas um punhado de startups focadas em identificar conteúdo autêntico em 2025, a questão ainda não escalou até um ponto onde plataformas, governos ou utilizadores estejam a tomar ações urgentes e coordenadas.
De acordo com Crawforth da Swear, a humanidade ainda não atingiu o ponto de inflexão onde os meios manipulados causam danos visíveis e inegáveis:
Fonte: https://cointelegraph.com/news/ai-era-internet-can-blockchain-prove-what-is-real?utm_source=rss_feed&utm_medium=feed&utm_campaign=rss_partner_inbound


