La promesa era clara: respuestas rápidas, útiles y confiables directamente desde el buscador.
Pero la realidad está siendo otra.
Google Gemini —la apuesta fuerte de Google para integrar inteligencia artificial en sus resultados— está fallando más de lo que muchos imaginaban. Y no es percepción: ya hay datos que lo respaldan.
Podría interesarte: ¿Y si la IA ya aprendió a “sentir”? Claude en el centro del debate

El dato que encendió la conversación
De acuerdo con un análisis hecho por The New York Times, las respuestas generadas por inteligencia artificial en Google presentan errores aproximadamente en 1 de cada 10 casos.
No es un fallo menor.
En un entorno donde la gente espera respuestas inmediatas y confiables, eso significa cientos de miles de mentiras que se difunden cada minuto del día.

Cuando la IA responde… pero no verifica
El modelo funciona generando respuestas a partir de patrones y datos previos, no verificando información en tiempo real como lo haría un humano.
Eso explica por qué puede construir respuestas bien redactadas… pero incorrectas en el fondo.
Como señala el análisis, el problema no es solo técnico, también es de percepción:
los usuarios tienden a confiar en lo que ven en el buscador sin cuestionarlo demasiado.
Más noticias sobre inteligencia artificial: Wikipedia parece ser la última esperanza humana contra la IA

El impacto real: búsquedas menos confiables
Esto cambia la dinámica del internet que conocemos.
Antes, buscabas, comparabas fuentes y decidías.
Ahora, la respuesta ya viene “resuelta”.
Y si esa respuesta tiene margen de error, el riesgo es claro:
- Menos verificación por parte del usuario
- Mayor propagación de información incorrecta
- Dependencia total en una sola respuesta
El buscador deja de ser un punto de partida… y se convierte en una conclusión automática.




