A muchos de nosotros nos han enseñado que pronunciar las vocales de forma indistinta y omitir las consonantes son síntomas de hablar de forma descuidada, si no un desprecio absoluto por la lengua inglesa. El dramaturgo irlandés St. John Ervine consideraba tales hábitos como una prueba de que algunos hablantes son “débiles demasiado lánguidos y castrados para hablar su noble lengua con algún vigor”. Si es así, estamos nadando en un mar de flaqueza lingüística; Keith Johnson descubrió que los hablantes relajaban o dejaban de lado los sonidos en más del 60 por ciento de las palabras pronunciadas en una conversación. Afortunadamente, la ciencia del murmullo ofrece un relato mucho menos crítico -y más cautivador- de nuestras imperfectas y nítidas pronunciaciones.
Lejos de ser un síntoma de indiferencia lingüística o decadencia moral, la eliminación o reducción de sonidos muestra una lógica subyacente similar a los esquemas de compresión de datos que se utilizan para crear MP3 y JPEG. Estos algoritmos recortan el espacio necesario para almacenar digitalmente los sonidos y las imágenes desechando la información que es redundante o que no aporta gran cosa a nuestra experiencia perceptiva; por ejemplo, desechando los datos de las frecuencias de sonido que no podemos oír, o no molestándose en codificar las ligeras gradaciones de color que son difíciles de ver. La idea es conservar sólo la información que tiene el mayor impacto.
El murmullo -o la reducción fonética, como prefieren llamarlo los científicos del lenguaje- parece seguir una estrategia similar. No todas las palabras tienen la misma probabilidad de ser reducidas. En el habla, es más probable que se reduzcan palabras comunes como fine que palabras poco comunes como tine. También es más probable que se reduzcan las palabras si son predecibles en el contexto, de modo que la palabra fine se pronunciaría menos claramente en una frase como “Vas a estar bien” que “La última palabra de esta frase es fine”. Esto sugiere que los hablantes, a un nivel puramente inconsciente, conservan estratégicamente la información cuando es necesaria, pero a menudo la omiten cuando no ofrece muchos beneficios comunicativos. Hablar es una actividad costosa desde el punto de vista cognitivo y, al racionalizar lo que se puede, los hablantes pueden acabar produciendo frases mejor diseñadas y más fluidas.
Este tipo de compresión de datos lingüísticos no se limita a la pronunciación: También impulsa las decisiones sobre si se deben pronunciar u omitir ciertas palabras. Es mucho más probable que usted especifique que su vecino es una mujer policía o un hombre enfermero que si los géneros estuvieran invertidos. Dado que la mayoría de los policías han sido hombres y la mayoría de las enfermeras, históricamente, el género es bastante predecible en el caso habitual; la preciosa energía cognitiva se reserva para los casos anómalos, en los que las palabras hombre y mujer son más útiles.
Lejos de ser un síntoma de indiferencia lingüística o decadencia moral, la omisión o reducción de sonidos muestra una lógica subyacente similar a los esquemas de compresión de datos que se utilizan para crear MP3 y JPEG.
La noción de pereza estratégica, en la que el esfuerzo y el valor informativo se equilibran juiciosamente entre sí, se extiende más allá de los hablantes individuales a lenguas enteras, ayudando a explicar por qué tienen ciertas propiedades. Por ejemplo, ofrece una idea de por qué las lenguas toleran grandes cantidades de ambigüedad en sus vocabularios: Los hablantes pueden reciclar palabras y frases fáciles de pronunciar para que adquieran múltiples significados, en situaciones en las que los oyentes pueden recuperar fácilmente la intención del hablante. También se ha invocado para explicar el hecho de que, en todas las lenguas, las palabras más comunes tiendan a ser cortas y lleven una cantidad mínima de información fonética, y para explicar por qué las lenguas adoptan determinados órdenes de palabras.
También se puede ver la compresión estratégica de datos en acción inspeccionando los vocabularios de colores de las lenguas. Algunas lenguas se conforman con sólo tres o cuatro palabras distintas para designar el color; por ejemplo, la lengua lele, hablada por decenas de miles de personas en el Chad, utiliza una sola palabra para englobar el amarillo, el verde y el azul. Las lenguas con un vocabulario minimalista del color suelen ser habladas en sociedades preindustriales, donde hay muy pocos objetos manufacturados a los que se haya aplicado el color de forma artificial. Esto significa que los hablantes se refieren sobre todo a objetos naturales, para los que el color es muy predecible, como lo ha sido tradicionalmente el género para las enfermeras o los policías. Si pensamos en la última vez que le pedimos a alguien que saliera a cortar la hierba verde o que nos comprara unos plátanos amarillos, resulta más fácil ver cómo una lengua puede arreglárselas sin un menú abundante de palabras de color, especialmente en una zona sin profusión de productos de consumo.
Aunque hay muchas razones para creer que el lenguaje implica una gran compresión de datos sin una pérdida catastrófica de significado, los científicos todavía saben muy poco sobre cómo los hablantes averiguan exactamente qué información pueden permitirse dejar fuera y cuándo. Los algoritmos de compresión de datos que se utilizan para crear archivos MP3 se basan en decenas de experimentos psicoacústicos que han investigado los detalles de la percepción auditiva humana. ¿Tienen los hablantes teorías implícitas sobre la información más esencial para sus oyentes? Si es así, ¿qué aspecto tienen esas teorías y cómo llegan a ellas los hablantes? ¿Y qué pensar del hecho de que la gente a veces murmura de forma ininteligible, lanzando demasiada información o el tipo equivocado? (Véase también el post anterior de Aatish Bhatia, “The Math Trick Behind MP3s, JPEGs, and Homer Simpson’s Face”).
Tampoco sabemos hasta qué punto los altavoces ajustan sus algoritmos de compresión de datos a las necesidades de los oyentes individuales. Predecir con precisión la información que un oyente puede recuperar fácilmente requiere a veces saber mucho sobre su experiencia o conocimientos previos. Después de todo, la redundancia de una persona puede ser la anomalía de otra, como quedó claro en un intercambio que tuve una vez con un compañero de avión. Salíamos de la ciudad de Calgary, junto a las Rocosas canadienses. Mi compañero, que se dirigía a su casa en Florida, me dijo que había pasado unas vacaciones muy agradables con su familia y que había pasado varios días esquiando en la nieve en las montañas. A mis oídos canadienses, esto les sonó raro: ¿acaso el esquí no suele implicar nieve? Le pregunté si alguna vez había utilizado el término esquí. Pues sí, me explicó pacientemente. Pero entonces, eso sería en el agua.
Julie Sedivy enseña lingüística y psicología en la Universidad de Calgary, e intercambia información en Twitter @soldonlanguage.