Fotoclube Porto-alegrense

[Artigo] Ver para crer? A Fotografia e o Colapso da Evidência Visual na Era da IA Generativa, por Viviane Monteavaro

“Ver para Crer?” A Fotografia e o Colapso da Evidência Visual na Era da IA Generativa

Por Viviane Monteavaro, abril/2025


Ver para crer.” Por séculos, essa foi uma máxima incontestável. A visão era nossa principal via de validação da realidade. Quando algo era duvidoso, bastava mostrar — a prova estava ali, diante dos olhos. A fotografia, nesse contexto, sempre teve um papel central: documento, memória, denúncia, emoção. Mas o que acontece quando o que vemos pode ser gerado por um comando? Quando a prova pode ser fabricada com poucos cliques?
Com a Inteligência Artificial generativa, entramos na era do “ver para desconfiar”. E isso exige uma mudança profunda no nosso olhar — e no nosso comportamento.


1. A quebra do pacto visual: a IA e a nova era da manipulação da imagem

Hoje, basta descrever uma cena e ela é criada. Podemos colocar, lado a lado, pessoas que nunca se encontraram. Ou pior: que não se toleram. E pedir que sorriam numa festa, com gestos de intimidade.
As imagens geradas por IA já não são apenas criativas — elas são convincentes, persuasivas, perigosas, assim como os textos gerados.
O impacto disso é profundo. Se antes uma imagem bastava para comprovar, agora ela pode servir para enganar, manipular e até destruir reputações.


2. Para um ano eleitoral: o alerta está aceso

Em ano de eleições, essa tecnologia se torna uma faca de dois gumes.
Montagens, deepfakes, imagens “plantadas” podem ser usadas para fabricar escândalos, construir versões alternativas da realidade e desinformar em escala.
E o pior: são compartilhadas em segundos, antes que alguém possa questionar.
Nesse contexto, a educação para o olhar crítico e a alfabetização midiática tornam-se estratégias de defesa. Precisamos aprender a não acreditar de imediato, a buscar contextos, fontes, vestígios de manipulação – não que isso não fosse possível com a fotografia, mas hoje é muito mais fácil.


3. Como se proteger? Três camadas de cuidado

a) Alfabetização visual e digital:
Treinar o olhar para identificar distorções, inconsistências, pistas de edição. Questionar antes de compartilhar.

b) Verificação de fontes e contexto:
Imagens não podem mais circular desacompanhadas. Precisamos de legendas, datas, autoria, intenção.

c) Ferramentas de checagem e denúncia:
Utilizar plataformas de verificação e denunciar conteúdos manipulados. A tecnologia que gera também pode ajudar a detectar.


4. Para quem produz: ética começa pela reputação

Como eu mesma defendo no Framework de Integração Ética da IA, o ponto de partida é a preservação da própria reputação.
Quem gera conteúdo com IA precisa ter clareza de que está lidando com uma tecnologia poderosa — e, por isso mesmo, perigosa se usada sem consciência.
Transparência, intencionalidade e curadoria devem ser princípios básicos.
Se você edita uma imagem, se usou IA na criação, diga isso. Assuma. Contextualize. Seja ético por você — e pelo impacto que sua imagem pode gerar no outro.


O novo “crer” exige mais do que ver

Vivemos um tempo em que o real e o fabricado se confundem com facilidade assustadora.
Por isso, “ver” já não basta. Precisamos entender o processo de criação, a intenção por trás, o impacto adiante.
Nesse cenário, educar-se — e educar os outros — é um ato de responsabilidade.
E preservar a própria reputação, ao usar IA para criar ou compartilhar imagens, é um compromisso ético com o presente e com o futuro.

#vimon #fotoclubeportoalegrense #fotoclubepoa #pcpoa #VerParaCrer #ÉticaDigital #IAnaEducação #ReputaçãoDigital #imagemgeradaporia #alfabetizaçãodigital

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

13 + 1 =

Previous Next
Close
Test Caption
Test Description goes like this
plugins premium WordPress
Rolar para cima