Ley de Brandolini
Traductor traducir
La Ley de Brandolini (también conocida como el Principio de Asimetría de las Tonterías ) es un aforismo de Internet acuñado por el programador italiano Alberto Brandolini en 2013. Su esencia es que la cantidad de esfuerzo necesaria para refutar la desinformación es un orden de magnitud mayor que la cantidad de esfuerzo necesaria para crearla.
La formulación original es: “ La cantidad de energía necesaria para refutar una tontería es un orden de magnitud mayor que la necesaria para producirla ”.
2 Estructura formal del principio
3 Fundamentos cognitivos
4 Conceptos relacionados
5 Evidencia empírica sobre la asimetría
6 Ámbito de aplicación
7 Estrategias de contramedidas
8 Críticas y limitaciones
9 Relación con otros conceptos
10 Lugar en el discurso académico
Origen y autor
Alberto Brandolini es un programador y consultor italiano de Faenza (Emilia-Romaña), fundador de Avanscoperta, empresa especializada en la formación de desarrolladores de software. Es ampliamente conocido en la comunidad informática como el creador de la metodología EventStorming, una técnica colaborativa de modelado de procesos de negocio.
El aforismo se formuló públicamente por primera vez en enero de 2013 en una publicación en redes sociales. Según el propio Brandolini, surgió de la confluencia de dos acontecimientos: poco antes, había leído el libro de Daniel Kahneman, "Pensar rápido, pensar despacio ", y luego había visto un programa de entrevistas políticas italiano en el que el periodista Marco Travaglio y el ex primer ministro Silvio Berlusconi intercambiaban acusaciones. Al observar cómo cada nueva afirmación requería una refutación extensa y documentada, Brandolini formuló un principio que existía desde hacía tiempo en la práctica, pero que carecía de un nombre claro.
La ley cobró rápidamente auge en las comunidades profesionales y académicas. Empezó a ser citada por investigadores en los campos de la alfabetización mediática, la psicología cognitiva, la comunicación política y la educación.
Estructura formal del principio
¿Qué es un “orden de magnitud”?
La expresión "un orden de magnitud mayor" en la formulación original denota una diferencia de aproximadamente diez veces. En este contexto, no se trata de una afirmación matemática estricta, sino de una característica cualitativa: refutar una afirmación requiere mucho más tiempo, atención y recursos que crearla.
Una afirmación falsa puede crearse en cuestión de segundos; basta con escribir una frase corta sin ninguna prueba. Sin embargo, una refutación requiere buscar fuentes, analizar el contexto, comprender al público y una explicación clara de por qué la afirmación original es falsa. Por lo tanto, la asimetría no surge de una mala intención, sino de la naturaleza misma del proceso cognitivo.
Distinguir entre desinformación, información errónea y "tonterías"
En el contexto de la Ley de Brandolini, se utiliza la palabra inglesa "bullshit" (mierda), que el filósofo Harry Frankfurt distinguió de la mentira en 1986 (en su ensayo "Sobre el sinsentido", publicado como libro en 2005). Un mentiroso conoce la verdad y la oculta deliberadamente. Quien difunde mentiras es indiferente a la verdad de sus palabras; su objetivo no es engañar, sino impresionar o lograr el efecto deseado.
Esta distinción es crucial: una mentira puede refutarse presentando evidencia contraria. Refutar una afirmación neutral respecto a la verdad es más difícil, porque su autor no está sujeto a ninguna obligación fáctica de antemano y puede cambiar libremente de postura ante cada nueva objeción.
Las mentiras son lo opuesto a la verdad. El sinsentido les es indiferente.
La distinción entre desinformación (desinformación difundida sin intención) y desinformación (desinformación deliberada) también es importante para comprender la ley. El principio de Brandolini se aplica a ambas categorías, pero en la difusión intencional de información a sabiendas falsa, la asimetría de esfuerzos es fundamental: se utiliza deliberadamente como estrategia.
Fundamentos cognitivos
Sistema 1 y sistema 2 según Kahneman
Brandolini se inspiró en el libro de Kahneman, y con razón. El concepto de dos sistemas de pensamiento — rápido e intuitivo (Sistema 1) y lento y analítico (Sistema 2) — explica por qué crear y consumir afirmaciones simplistas es barato, mientras que verificarlas es caro.
El Sistema 1 funciona automáticamente: capta patrones familiares y forma un juicio al instante. Una afirmación falsa, formulada en una frase simple y emotiva, pasa por el Sistema 1 prácticamente sin resistencia. La refutación, sin embargo, requiere la intervención del Sistema 2: un análisis lento, consciente y que requiere mucha energía.
El efecto de familiaridad y la ilusión de verdad
Repetir una afirmación falsa la hace subjetivamente más creíble; este fenómeno se denomina efecto de verdad ilusoria. Los experimentos demuestran que, incluso si una persona sabe que una afirmación es falsa, al repetirla muchas veces, su cerebro empieza a percibirla como familiar, y la familiaridad se asocia con la verdad.
Esto significa que una simple refutación suele ser insuficiente. Al repetir la afirmación original, incluso con el propósito de criticarla, quien la refuta, sin darse cuenta, aumenta su "peso" en la mente del público.
Sesgo de confirmación y pensamiento motivado
Cuando una afirmación falsa se alinea con las creencias preexistentes de una persona, la resistencia a la refutación aumenta drásticamente. El pensamiento motivado obliga a las personas a evaluar críticamente la refutación en lugar de la afirmación original: buscan fallas en los argumentos del oponente, no en sus propias posturas.
Una investigación publicada en la revista Frontiers in Psychology en 2024 mostró que cuando una creencia está estrechamente ligada a la identidad personal o la clase social de una persona, recibir información correctiva a menudo desencadena mecanismos de defensa: en lugar de revisar sus puntos de vista, refuerzan los originales.
Conceptos relacionados
El galope de Gish
La táctica conocida como "Galope de Gish" es una aplicación práctica directa de la Ley de Brandolini en el debate. Quien utiliza esta técnica lanza un torrente de afirmaciones — medias verdades, datos distorsionados y mentiras descaradas — contra su oponente a tal velocidad que este no tiene tiempo para refutarlas.
El nombre se popularizó en 1994, cuando Eugene Scott, director del Centro Nacional para la Educación Científica de EE. UU., lo utilizó para describir los debates entre el bioquímico creacionista Duane Gish y biólogos evolucionistas. Cada argumento de Gish se desarrollaba en segundos; las refutaciones, en minutos. Dado el formato limitado de los debates, esto ofrecía una clara ventaja.
El mecanismo del galope de Gish se basa enteramente en la asimetría descrita por Brandolini: si el oponente no refuta las cien afirmaciones, el galope declara la victoria en las restantes.
El efecto bumerán y su reevaluación
En 2010, los politólogos Brendan Nyan y Jason Reifler publicaron un estudio que documentaba el llamado "efecto contraproducente": refutar creencias a veces llevaba a las personas a afianzarlas aún más. Estos hallazgos fueron ampliamente citados y llevaron a la idea de que corregir la desinformación era completamente inútil.
Sin embargo, investigaciones posteriores han puesto en duda esta conclusión. Un metaanálisis de 52 experimentos de modificación de creencias políticas realizado por Porter y Wood no halló evidencia de un efecto bumerán sistémico. Un estudio de 2022 publicado en una revista revisada por pares concluyó que, cuando se observó dicho efecto, se debió principalmente a la incertidumbre de la medición, más que a un mecanismo psicológico sólido.
Sin embargo, la dificultad de la refutación — la idea central de la ley de Brandolini — no se ve refutada por estos datos. La verificación de datos reduce la creencia en afirmaciones falsas, pero el proceso en sí mismo sigue siendo mucho más laborioso que su creación.
El problema de la carga de la prueba
El principio de Brandolini está estrechamente relacionado con la distribución desigual de la carga de la prueba. En el discurso público, quien afirma algo a menudo no arriesga nada: puede hablar sin fundamentar sus palabras con fuentes. Sin embargo, su oponente está obligado a construir una cadena de pruebas, verificar las fuentes, considerar contraargumentos y hacer todo esto de forma convincente ante la audiencia.
El aforismo de Carl Sagan, "Las afirmaciones extraordinarias requieren evidencia extraordinaria", y el principio inapelable de Hitchens, "Lo que se afirma sin evidencia puede ser rechazado sin evidencia", se oponen directamente en espíritu a la norma implícita que en realidad gobierna muchos intercambios públicos.
Evidencia empírica sobre la asimetría
La velocidad de difusión de información falsa
Un estudio de 2018 realizado por Washburn y Aral, publicado en Science, analizó aproximadamente 126.000 cadenas de difusión de noticias en la microblogosfera entre 2006 y 2017. Las noticias falsas se propagaron con mayor rapidez, distancia y amplitud que las verdaderas, y esta superioridad se mantuvo en todas las categorías temáticas. Las noticias políticas falsas se propagaron con especial rapidez.
Los autores del estudio vincularon este efecto con la novedad: las noticias falsas suelen contener información inesperada o con una fuerte carga emocional, lo que provoca sorpresa y anima a compartirla. Las noticias verdaderas son, en promedio, "aburridas": encajan en una visión del mundo ya familiar.
La eficacia de la verificación de datos
Un estudio a gran escala realizado simultáneamente en cuatro países (Argentina, Nigeria, Sudáfrica y el Reino Unido) y publicado en PNAS en 2021 reveló que la verificación de datos redujo la creencia en falsedades en un promedio de 0,59 puntos en una escala de cinco. Mientras tanto, la exposición a la desinformación por sí sola, sin corrección alguna, aumentó la creencia en ella en tan solo 0,07 puntos.
En otras palabras, una sola dosis de desinformación tiene poco efecto sobre las creencias, pero el efecto acumulativo de la exposición repetida, en ausencia de una corrección sistemática, es significativo. Aquí es donde se manifiesta la verdadera asimetría: se pueden producir afirmaciones falsas de forma continua y masiva, mientras que su verificación sigue siendo un proceso poco frecuente y costoso.
El precio de la verificación profesional de datos
Un estudio realizado por la Revisión de Desinformación de la Escuela Kennedy de Harvard reveló que los verificadores de datos profesionales (incluyendo Snopes, PolitiFact y otras organizaciones prestigiosas) dedican mucho más tiempo y recursos a verificar una sola afirmación que a crearla. Los sistemas automatizados de verificación de datos reducen esta disparidad, pero no la eliminan: para afirmaciones complejas y contextualizadas, el análisis automático aún está por detrás de la revisión humana.
Ámbito de aplicación
Comunicaciones políticas
En política, la ley de Brandolini es particularmente clara. Una afirmación política — una acusación, una sospecha, una interpretación simplificada de un asunto complejo — puede hacerse en segundos y difundirse de inmediato por los medios. Su verificación, incluso si resulta en una refutación, lleva días o semanas y requiere consultar a expertos, documentos y estadísticas.
Los debates electorales son un claro ejemplo. En un formato de debate con límites de tiempo estrictos, cada afirmación falsa de un candidato requiere una respuesta concisa pero convincente del oponente, lo cual es prácticamente imposible dada la alta frecuencia de tales afirmaciones.
Discurso científico y pseudociencia
En ciencia, el principio de Brandolini explica la persistencia de conceptos pseudocientíficos. Las narrativas antivacunas, las teorías de la Tierra plana, la negación del cambio climático: cada una de estas posturas se basa en un conjunto de premisas simples cuya refutación requiere explicaciones detalladas con referencias a investigaciones revisadas por pares.
La presión de "publicar o morir" bajo la que opera la comunidad académica desempeña un papel especial aquí: los investigadores suelen estar interesados en resultados impactantes en lugar de la monótona tarea de refutar los errores de otros. La crisis de replicación en psicología y ciencias sociales se debe en parte a que los resultados sensacionales se publican con mayor rapidez y facilidad que sus correcciones meticulosas.
Desinformación médica
El campo médico es particularmente vulnerable a la asimetría descrita por Brandolini. La afirmación de que "las vacunas causan autismo" se publicó en una sola publicación en The Lancet en 1998, publicación que posteriormente se retractó y se consideró fraudulenta. Refutar esta afirmación requirió docenas de amplios estudios epidemiológicos con millones de niños y llevó más de dos décadas.
El costo de esta asimetría es la disminución de la cobertura de vacunación y los brotes de sarampión en regiones donde las narrativas antivacunas están particularmente arraigadas.
Entorno y gestión empresarial
En un contexto organizacional, el principio de Brandolini describe un fenómeno al que se enfrentan muchos gerentes y especialistas: un rumor, una idea errónea o una interpretación incorrecta de las estadísticas pueden paralizar el trabajo de un departamento o comprometer todo un proyecto. Refutar la información requiere tiempo, explicaciones formales y, a menudo, la convocatoria de reuniones extraordinarias.
Los equipos que trabajan bajo una gran carga de información son particularmente propensos a aceptar la afirmación de "el primero en llegar" como hipótesis de trabajo: simplemente no hay recursos para probar sistemáticamente cada una de ellas.
Estrategias de contramedidas
La prebanca y la teoría de la inmunización
El investigador de la Universidad de Cambridge, Sander van der Linden, y sus colegas desarrollaron el concepto de "prebunking" (preinoculación contra la desinformación), similar a la vacunación médica. La idea es que, al exponer a las personas a formas atenuadas de las técnicas de manipulación utilizadas en la desinformación, desarrollan resiliencia cognitiva ante ellas.
Un estudio del juego Bad News, realizado en cuatro países (Suecia, Alemania, Polonia y Grecia), confirmó que los participantes que jugaron un escenario de juego en el que ellos mismos “produjeron” falsificaciones fueron posteriormente significativamente mejores en reconocer técnicas de manipulación y eran menos propensos a confiar en la desinformación.
La verificación previa de datos, a diferencia de la verificación tradicional, funciona antes de que se produzca una declaración falsa y, por lo tanto, requiere menos esfuerzo por persona protegida.
Desplazamiento de la carga de la prueba
Una forma de neutralizar esta asimetría es negarse a asumir la carga de la refutación cuando no corresponde. Si una afirmación no está respaldada por pruebas, formalmente no requiere refutación: según la navaja de Hitchens, puede rechazarse con la misma justificación con la que se presentó.
En la práctica, esto significa que en lugar de analizar cada tesis de desinformación específica, es más efectivo preguntar: “¿En qué se basa esta afirmación?” y trasladar la carga de la prueba a la parte que la hizo.
La alfabetización mediática como respuesta sistémica
El curso "Decir mentiras", desarrollado por los profesores Carl Bergstrom y Jevin West de la Universidad de Washington, se basa directamente en el principio de Brandolini. El curso no enseña tanto a verificar los hechos como a reconocer las señales estructurales de la manipulación en las estadísticas, la visualización de datos, las técnicas retóricas y la selección de fuentes.
El objetivo no es combatir la desinformación en cada caso individual, sino reducir la susceptibilidad general a ella disminuyendo la demanda de afirmaciones sin fundamento.
Verificación automatizada de datos
Dado que la verificación manual de datos es fundamentalmente ineficaz para gestionar el volumen de desinformación producida, la comunidad científica y las empresas tecnológicas están invirtiendo en sistemas de verificación automatizados. Estos sistemas son capaces de comparar afirmaciones con bases de datos de hechos verificados en tiempo real, identificar narrativas previamente desmentidas y marcar materiales con alta probabilidad de ser falsos.
La limitación de la automatización es que funciona bien con afirmaciones determinadas fácticamente y mal con manipulaciones contextuales, medias verdades y distorsiones retóricas que no contienen formalmente hechos falsos.
Críticas y limitaciones
Falta de verificación estricta
La ley de Brandolini es un aforismo, no una hipótesis científica formal. No contiene definiciones operativas de «energía» ni de «esfuerzo» ni implica una proporción numérica específica. La frase «un orden de magnitud mayor» es una evaluación cualitativa, no una cantidad medida empíricamente.
Muchos investigadores señalan que la asimetría específica varía mucho según la naturaleza de la afirmación: refutar un error matemático puede ser tan rápido como se cometió, mientras que refutar una falsificación histórica requerirá una extensa investigación de archivo.
El riesgo del escepticismo excesivo
Un estudio realizado en tres países (Estados Unidos, Polonia y Hong Kong) y publicado en Harvard Kennedy School Misinformation Review en 2024 encontró un efecto secundario inesperado de la verificación activa de datos: las personas expuestas a intervenciones correctivas intensivas comenzaron con un mayor escepticismo no solo sobre la información falsa, sino también sobre la información confiable.
Esto significa que combatir agresivamente la desinformación puede socavar indirectamente la confianza en el conocimiento verificado, un efecto que en sí mismo se convierte en un vector para una mayor propagación de la duda.
Diferencias contextuales y culturales
El grado de asimetría descrito por la ley varía según el entorno mediático, el nivel de confianza pública en las instituciones y las normas culturales del debate público. En sociedades con altos niveles de alfabetización mediática e instituciones sólidas de verificación de datos, el costo de la refutación es menor, no porque sea más fácil, sino porque la audiencia está mejor preparada para aceptarla.
Por el contrario, en condiciones de fragmentación de la información, cuando diferentes grupos de la población consumen flujos de medios fundamentalmente diferentes, el coste de la refutación aumenta: llegar a una audiencia que ya cree en una afirmación falsa es significativamente más difícil que llegar a una neutral.
Relación con otros conceptos
El principio de Brandolini encaja orgánicamente en una serie de conceptos relacionados que estudian la asimetría de la información y los sesgos cognitivos.
El principio de Potter — la afirmación informal de que «la raíz de una mentira crece más rápido que su refutación» — fue formulado de forma independiente y describe el mismo mecanismo cuando se aplica a contextos burocráticos y administrativos.
Las leyes de la propagación de rumores , estudiadas por psicólogos sociales ya a mediados del siglo XX (Allport y Postman, 1947), documentan la tendencia de los rumores a simplificarse y agudizarse durante la transmisión: cada relato intensifica los detalles vívidos y descarta matices, haciendo que el rumor sea cada vez menos verificable.
La teoría de la agnoiología — disciplina filosófica que estudia la producción de ignorancia — examina los mecanismos sistémicos mediante los cuales actores con motivaciones económicas o políticas crean deliberadamente incertidumbre informativa. El historiador de la ciencia Robert Proctor acuñó el término agnotología para este fenómeno; un ejemplo clásico son las campañas de las tabacaleras para sembrar dudas sobre la relación entre el tabaquismo y el cáncer de pulmón.
Lugar en el discurso académico
La ley de Brandolini se ha convertido en un concepto informal ampliamente citado en textos académicos. Se menciona en estudios sobre psicología cognitiva, alfabetización mediática, comunicación política y ética de la ciencia.
En su libro "Calling Bullshit: The Art of Skepticism in a Data-Driven World" (2020), los biólogos Carl Bergstrom y Jevin West sistematizaron diversas formas de manipulación de la información, basándose en parte en el principio de asimetría. Esta obra transformó un aforismo informal en una herramienta práctica para la pedagogía del pensamiento crítico.
El blog del British Medical Journal (BMJ) publicó un ensayo, "La insoportable asimetría de las tonterías", en el que se aplicó el principio a la ciencia médica: los autores demostraron que los estudios injustos o simplemente descuidados ocupan el espacio de los medios, mientras que su refutación metódica sigue siendo el dominio de unos pocos revisores desagradecidos.
Los límites de la metáfora del "orden de magnitud"
El principio de Brandolini se cita a menudo en una versión más débil: «mucho más difícil». Esta suavización refleja las dudas de algunos académicos sobre si la asimetría alcanza realmente una escala diez veces mayor en cada caso específico. Algunos investigadores prefieren hablar de asimetría sustancial, pero no universalmente múltiple.
Al mismo tiempo, la idea general de que producir afirmaciones sin fundamento es estructuralmente más barato que verificarlas está respaldada por una amplia gama de datos de diversos campos, desde la medición de la velocidad de difusión de las noticias hasta la economía de la verificación de datos.
No se puede comentar Por qué?