Quando impareremo a parlare con le Balene?

Cosa significano quei ticchettii delle Balene? I capodogli sono tra gli animali viventi più rumorosi del pianeta, producono scricchiolii, colpi e ticchettii staccati per comunicare con altri cetacei che [...] ..

Quando impareremo a parlare con le Balene?

Cosa significano quei ticchettii delle Balene? I capodogli sono tra gli animali viventi più rumorosi del pianeta, producono scricchiolii, colpi e ticchettii staccati per comunicare con altri cetacei che si trovano a pochi metri di distanza o anche a poche centinaia di miglia. Questa sinfonia di clic modellati, nota come coda, potrebbe essere abbastanza sofisticata da qualificarsi come un linguaggio a tutti gli effetti. Ma gli umani capiranno mai cosa stanno dicendo questi cetacei? La risposta è forse, ma prima i ricercatori devono raccogliere e analizzare un numero senza precedenti di comunicazioni di capodogli.

Con cervelli sei volte più grandi del nostro, i capodogli (Physeter macrocephalus) hanno strutture sociali intricate e passano gran parte del loro tempo a socializzare e a scambiarsi code. Questi messaggi possono essere brevi come 10 secondi o durare più di mezz’ora. In effetti, “La complessità e la durata delle vocalizzazioni delle balene suggeriscono che sono almeno in linea di principio in grado di esibire una grammatica più complessa” rispetto ad altri animali non umani, secondo un documento dell’aprile 2021 sui capodogli pubblicato sul server di prestampa arXiv.org.

Questo documento, da un progetto interdisciplinare noto come CETI (Cetacean Translation Initiative), delinea un piano per decodificare le vocalizzazioni dei capodogli, prima raccogliendo registrazioni di capodogli, e poi utilizzando l’apprendimento automatico per cercare di decodificare le sequenze di clic questi altri mammiferi usano per comunicare. Il CETI ha scelto di studiare i capodogli rispetto ad altre balene perché i loro clic hanno una struttura quasi simile a un codice Morse, che l’intelligenza artificiale (AI) potrebbe analizzare più facilmente.

Il poco che gli umani sanno sui capodogli è stato appreso abbastanza di recente

È stato solo negli anni ’50 che abbiamo notato che emettevano suoni e non si sapeva che stavano usando quei suoni per comunicare fino agli anni ’70, secondo la nuova ricerca pubblicata dal CETI.

Questo clic sembra servire a un duplice scopo. I capodogli possono immergersi a profondità di 4.000 piedi (1.200 metri), o tre volte più profonde dei sottomarini nucleari, secondo la Woods Holes Oceanographic Institution. Poiché a queste profondità è buio pesto, si sono evoluti per cercare calamari e altre creature marine utilizzando i clic per l’ecolocalizzazione, un tipo di sonar. Questo stesso meccanismo di clic viene utilizzato anche nelle loro vocalizzazioni sociali, sebbene i clic di comunicazione siano più fitti, secondo il documento CETI.

Capire anche questo è stato difficile, poiché i capodogli sono stati ‘così difficili da studiare per gli esseri umani per così tanti anni’, ha detto a Live Science David Gruber, un biologo marino e leader del progetto CETI. Ma ora, “in realtà abbiamo gli strumenti per essere in grado di guardare questo più in profondità in un modo che non siamo stati in grado di fare prima”. Questi strumenti includono intelligenza artificiale, robotica e droni, ha affermato.

Pratyusha Sharma, ricercatore di data science per CETI e dottorando presso il Computer Science and Artificial Intelligence Laboratory del MIT, ha raccontato a Live Science di più sui recenti sviluppi dell’intelligenza artificiale e dei modelli linguistici, come GPT-3, che utilizza il deep learning per costruire testi umani o storie a comando,

e l’anno scorso ha preso d’assalto la comunità dell’IA. Gli scienziati sperano che questi stessi metodi possano essere applicati alle vocalizzazioni dei capodogli, ha detto. L’unico problema: questi metodi hanno un appetito vorace per i dati.

Il progetto CETI ha attualmente registrazioni di circa 100.000 clic di capodogli, raccolte faticosamente da biologi marini nel corso di molti anni, ma gli algoritmi di apprendimento automatico potrebbero aver bisogno di circa 4 miliardi. Per colmare questa lacuna, CETI sta creando numerosi canali automatizzati per la raccolta delle registrazioni dei capodogli. Questi includono microfoni subacquei posizionati in acque frequentate da capodogli, microfoni che possono essere lasciati cadere da droni volanti con occhi d’aquila non appena individuano un branco di capodogli che si radunano in superficie e persino pesci robotici che possono seguire e ascoltare le balene senza essere invadenti da una distanza.

Ma anche con tutti questi dati, saremo in grado di decifrarli? Molti degli algoritmi di apprendimento automatico hanno trovato l’audio più difficile da analizzare rispetto al testo. Ad esempio, potrebbe essere difficile analizzare dove inizia e finisce una parola. Come ha spiegato Sharma, “Supponiamo che ci sia una parola ‘umbrella’. È ‘um’ la parola o è ‘umbrell’ o è ‘umbrella’?’ Le barriere tra le parole pronunciate sono più ambigue e meno regolari e gli schemi possono quindi richiedere più dati per essere scoperti.

Questa non è l’unica difficoltà che CETI dovrà affrontare. “Che qualcuno provenga, diciamo, dal Giappone o dagli Stati Uniti o da qualsiasi altra parte, i mondi di cui parliamo sono molto simili; parliamo di persone, parliamo delle loro azioni”, ha detto Sharma. “Ma i mondi in cui vivono queste balene sono molto diversi, giusto? E i comportamenti sono molto diversi”.

Inoltre, è noto che i capodogli hanno dialetti, secondo uno studio del 2016 sulla rivista Royal Society Open Science, che ha analizzato le code di nove gruppi di capodogli nei Caraibi per sei anni.

Ma queste difficoltà sono anche ciò che rende il progetto così valido. Ciò che esattamente un capodoglio dice a un altro rimane oscuro e torbido come le acque in cui nuotano, ma questo mistero rende ogni risposta che CETI trova ancora più intrigante. Come ha detto Gruber: “impariamo così tanto quando cerchiamo di vedere il mondo dalla prospettiva dell’altro”.