Cuando ver ya no alcanza: ética, percepción y verdad en la era de la inteligencia artificial
Lunes, 19 Enero 2026 12:23

Cuando ver ya no alcanza: ética, percepción y verdad en la era de la inteligencia artificial

Ética, percepción y responsabilidad en la era de la inteligencia artificial

 

En el video que publico más abajo, el perro reacciona con total convicción. Ladra, se tensa, se planta frente a la pantalla. Para él no existe la duda. No sabe de edición, de pantallas ni de inteligencia artificial. Su cerebro recibe estímulos y responde. Lo que ve es real.

Ese gesto simple abre una pregunta incómoda.
Lo que el perro percibe no existe en la realidad física, pero existe plenamente en su realidad mental. No hay engaño consciente; hay interpretación. Solo con aprendizaje —si llega— podría entender que ciertas imágenes no implican presencia real.

Ese mismo mecanismo actúa en las personas. Nuestro cerebro tampoco distingue de forma automática entre lo verdadero y lo fabricado. Primero creemos; después, si aprendemos, dudamos. Desde ese punto comienza el debate ético.


El quiebre del pacto visual

Durante décadas sostuvimos un acuerdo silencioso con la información: la imagen funcionaba como prueba. La fotografía documentaba, el video confirmaba. Hoy ese pacto se resquebraja. La inteligencia artificial permite crear escenas verosímiles sin que hayan ocurrido: nieve en el desierto, gestos que nunca existieron, cuerpos generados, voces reconstruidas.

La tecnología no miente. Calcula. El problema surge cuando la imagen sigue presentándose como evidencia sin advertencias. En ese punto, la percepción reemplaza a la verdad y la confianza se erosiona.


Percepción no es verdad

El ojo no valida hechos; interpreta estímulos. El cerebro completa lo que ve con experiencias previas, emociones y expectativas. Por eso una imagen convincente activa respuestas reales: miedo, deseo, rechazo, empatía.
El impacto no depende de si algo ocurrió, sino de si parece haber ocurrido.

La inteligencia artificial trabaja precisamente ahí, en el terreno de lo plausible. No necesita engañar para generar efectos. Le alcanza con parecer.


El riesgo de delegar el juicio

La IA puede colaborar con ideas, acelerar procesos creativos, ampliar miradas. El límite aparece cuando cedemos el pensamiento crítico. Pedirle que decida qué es verdadero, qué creer o cómo interpretar la realidad implica renunciar a una responsabilidad humana básica.

La tecnología no posee ética propia. Opera con patrones, probabilidades y datos. El criterio moral no está en el algoritmo, sino en quien lo usa y en el contexto donde se publica el contenido.


Advertir también es un acto ético

En este nuevo escenario, la omisión se vuelve problemática. Si una imagen, un video o un audio fue generado o alterado por inteligencia artificial, debería decirlo. No como censura, sino como señalización. Marcas visibles, metadatos claros, contextos explicativos.

Advertir no limita la creatividad. Al contrario, protege el derecho a comprender. La ética de la información ya no pasa solo por lo que se muestra, sino por lo que se explica.


Educación antes que prohibición

Regular resulta necesario, pero no alcanza. La verdadera defensa es cultural. Aprender a dudar, contrastar fuentes, entender cómo se producen las imágenes y por qué nos convencen.
La alfabetización mediática se vuelve tan importante como saber leer o escribir.

La ética no se descarga ni se automatiza. Se entrena.


Un nuevo contrato con la imagen

La pregunta central no es si la inteligencia artificial engaña. La pregunta es qué hacemos nosotros con lo que vemos. La tecnología amplifica capacidades humanas, pero también amplifica sesgos, deseos y temores.

El video del perro no muestra un error. Muestra un reflejo.
Nos recuerda que creer es un acto automático y que dudar es un aprendizaje.

Medios