Beaucoup d’entre nous ont appris que prononcer les voyelles de manière indistincte et laisser tomber les consonnes sont des symptômes d’un discours négligé, si ce n’est un mépris total de la langue anglaise. Le dramaturge irlandais St. John Ervine considérait ces habitudes comme la preuve que certains locuteurs sont “des mauviettes trop languissantes et émasculées pour parler leur noble langue avec vigueur”. Si tel est le cas, nous nageons dans un océan de mollesse linguistique ; Keith Johnson a constaté que les locuteurs relâchent ou laissent tomber des sons dans plus de 60 % des mots prononcés dans une conversation. Heureusement, la science du marmonnement offre un récit beaucoup moins critique – et plus captivant – de nos prononciations imparfaitement nettes.
Loin d’être un symptôme d’indifférence linguistique ou de décadence morale, l’abandon ou la réduction des sons affiche une logique sous-jacente similaire aux schémas de compression des données utilisés pour créer des MP3 et des JPEG. Ces algorithmes réduisent l’espace nécessaire au stockage numérique des sons et des images en éliminant les informations redondantes ou qui n’ajoutent pas grand-chose à notre expérience perceptive – par exemple, en éliminant les données relatives aux fréquences sonores que nous ne pouvons pas entendre, ou en ne prenant pas la peine d’encoder les légères gradations de couleur qui sont difficiles à voir. L’idée est de ne conserver que les informations qui ont le plus d’impact.
Le marmonnage – ou la réduction phonétique, comme les spécialistes du langage préfèrent l’appeler – semble suivre une stratégie similaire. Tous les mots n’ont pas la même probabilité d’être réduits. À l’oral, vous êtes plus susceptible de réduire des mots communs comme fine que des mots peu communs comme tine. Il est également plus probable que vous réduisiez des mots s’ils sont prévisibles dans le contexte, de sorte que le mot fine sera prononcé moins distinctement dans une phrase telle que “Tu vas être très bien” que “Le dernier mot de cette phrase est fine”. Cela suggère que les locuteurs, à un niveau purement inconscient, conservent stratégiquement les informations lorsqu’elles sont nécessaires, mais les laissent souvent de côté lorsqu’elles n’offrent pas un grand intérêt pour la communication. Parler est une activité laborieuse, cognitivement coûteuse, et en rationalisant là où ils le peuvent, les locuteurs peuvent finalement produire des phrases mieux conçues et plus fluides.
Ce type de compression des données linguistiques ne se limite pas à la prononciation : Il conduit également les décisions concernant la prononciation ou l’omission de certains mots. Vous êtes beaucoup plus susceptible de préciser que votre voisin est une femme officier de police ou un homme infirmier que si les genres étaient inversés. Comme la plupart des policiers ont été des hommes et la plupart des infirmières des femmes, historiquement, le genre est assez prévisible dans le cas habituel ; une énergie cognitive précieuse est réservée aux cas anormaux, où les mots homme et femme sont plus utiles.
Loin d’être un symptôme d’indifférence linguistique ou de décadence morale, l’abandon ou la réduction des sons affiche une logique sous-jacente similaire aux schémas de compression des données qui sont utilisés pour créer des MP3 et des JPEG.
La notion de paresse stratégique, dans laquelle l’effort et la valeur informationnelle sont judicieusement équilibrés l’un par rapport à l’autre, s’étend au-delà des locuteurs individuels à des langues entières, aidant à expliquer pourquoi elles ont certaines propriétés. Par exemple, elle permet de comprendre pourquoi les langues tolèrent des quantités massives d’ambiguïté dans leurs vocabulaires : Les locuteurs peuvent recycler des mots et des phrases faciles à prononcer pour leur donner des significations multiples, dans des situations où les auditeurs peuvent facilement retrouver l’intention du locuteur. Il a également été invoqué pour expliquer le fait que, d’une langue à l’autre, les mots les plus courants ont tendance à être courts, portant des quantités minimales d’informations phonétiques, et pour expliquer pourquoi les langues adoptent certains ordres de mots.
Vous pouvez également voir la compression stratégique des données en action en inspectant les vocabulaires de couleur entre les langues. Certaines langues se contentent de trois ou quatre mots distincts pour désigner la couleur ; par exemple, la langue lélé, parlée par des dizaines de milliers de personnes au Tchad, utilise un seul mot pour englober le jaune, le vert et le bleu. Les langues dotées d’un vocabulaire des couleurs minimaliste ont tendance à être parlées dans des sociétés préindustrielles, où il existe très peu d’objets manufacturés auxquels la couleur a été appliquée artificiellement. Cela signifie que les locuteurs font surtout référence à des objets naturels, pour lesquels la couleur est hautement prévisible, tout comme le sexe l’est traditionnellement pour les infirmières ou les policiers. Si vous vous rappelez la dernière fois que vous avez demandé à quelqu’un d’aller couper l’herbe verte ou de vous acheter des bananes jaunes, il devient plus facile de voir comment une langue pourrait s’en sortir sans un menu abondant de mots de couleur – en particulier dans une région sans profusion de produits de consommation.
Bien qu’il y ait de nombreuses raisons de croire que le langage implique une grande quantité de compression de données sans perte catastrophique de sens, les scientifiques en savent encore très peu sur la façon dont les locuteurs déterminent exactement quelles informations ils peuvent se permettre de laisser de côté et quand. Les algorithmes de compression de données utilisés pour créer des fichiers MP3 sont basés sur de nombreuses expériences psychoacoustiques qui ont permis de sonder les points les plus fins de la perception auditive humaine. Les locuteurs ont-ils des théories implicites sur les informations les plus essentielles pour leurs auditeurs ? Si oui, à quoi ressemblent ces théories et comment les locuteurs y parviennent-ils ? Et que penser du fait que les gens marmonnent parfois de manière inintelligible, en rejetant soit trop d’informations, soit les mauvaises ? (Voir aussi le billet précédent d’Aatish Bhatia, “The Math Trick Behind MP3s, JPEGs, and Homer Simpson’s Face”).
Nous ne savons pas non plus dans quelle mesure les haut-parleurs accordent leurs algorithmes de compression de données aux besoins des auditeurs individuels. Prédire avec précision les informations qu’un auditeur peut facilement récupérer nécessite parfois d’en savoir beaucoup sur son expérience ou ses connaissances antérieures. Après tout, la redondance d’une personne peut être l’anomalie d’une autre, comme l’a montré un échange que j’ai eu un jour avec un autre passager d’avion. Nous étions au départ de la ville de Calgary, à côté des Rocheuses canadiennes. Mon compagnon, qui rentrait chez lui en Floride, m’a raconté qu’il avait passé de bonnes vacances avec sa famille, en faisant du ski de fond dans les montagnes pendant plusieurs jours. Pour mes oreilles de Canadien, cela semblait étrange – le ski n’implique-t-il pas habituellement de la neige ? Je lui ai demandé s’il lui arrivait d’utiliser simplement le terme “ski”. Eh bien oui, m’a-t-il expliqué patiemment. Mais alors, ce serait sur l’eau.
Julie Sedivy enseigne la linguistique et la psychologie à l’Université de Calgary, et échange des informations sur Twitter @soldonlanguage.