thumbnail

Los científicos acaban de lograr algo que hace unos años habría parecido imposible. Mantuvieron una conversación de 20 minutos con una ballena jorobada, un animal más grande que un autobús escolar que habita en la oscuridad del océano y que podría poseer el sistema de comunicación más complejo jamás descubierto en la Tierra.

Y lo que ocurrió después dejó a todo el equipo en silencio. Una investigadora del M Piite miró su pantalla, bajó la voz y dijo cuatro palabras que nadie esperaba escuchar.

Esto no debería ser posible. Si te interesa entender uno de los descubrimientos más inquietantes de la ciencia moderna, uno que podría cambiar lo que creemos sobre la inteligencia, el lenguaje y nuestro lugar en el planeta, asegúrate de quedarte hasta el final y suscribirte, porque lo que viene después podría ser aún más impactante.

La inteligencia artificial acababa de terminar de analizar 9,000 grabaciones de cachalotes. Durante décadas esas grabaciones habían sido consideradas simples ruidos, clicks rápidos, mecánicos, sin estructura real.

Sonidos de un animal inteligente, sí, pero no de algo que pudiera compararse con el lenguaje humano.

Eso era lo que todos creían hasta ese momento, porque lo que encontró la IA no era ruido, era un sistema.

Un sistema que parecía funcionar como un alfabeto fonético, con unidades básicas, con combinaciones y con algo que hizo que toda la sala se quedara sin explicación.

Vocales, no parecidas, no aproximadas, estructuralmente idénticas y a los bloques fundamentales del habla humana.

Nadie supo cómo reaccionar. Durante años, el consenso científico había sido claro y aparentemente sólido.

Los cachalotes utilizaban alrededor de 21 patrones de clicks conocidos como codas. Cada coda era simplemente un grupo de sonidos con un significado fijo, una señal de contacto, una advertencia, [música] una dirección.

Nada complejo, nada abierto, nada comparable al lenguaje. [música] Era como un semáforo, rojo, verde, amarillo, un número limitado de señales con significados definidos.

Eso era todo. Pero cuando los investigadores empezaron a observar secuencias completas de comunicación, largas cadenas de estas codas, algo no cuadraba, los patrones no eran rígidos, no eran repetitivos, [música] no eran simples.

Y esa suposición, que había guiado décadas de investigación estaba a punto de derrumbarse de una manera que nadie había anticipado.

Todo comenzó curiosamente con un momento completamente casual. Un biólogo marino llamado David Gruber estaba sentado en su oficina en el Radcliff Institute de la Universidad de Harvard.

No estaba estudiando cachalotes en ese momento. Estaba revisando grabaciones que había recolectado mientras investigaba medusas en el Caribe.

Los sonidos de las ballenas estaban ahí [música] de fondo, clicks rápidos, constantes, casi como Código Morse bajo el agua.

Los había escuchado cientos de veces. Nunca les había prestado demasiada. Atención, para él, como para la mayoría, eran simplemente ruido ambiental de un sistema que la ciencia ya creía entender.

Entonces, alguien pasó por la puerta, se detuvo, escuchó y dijo algo que cambiaría el rumbo de toda la investigación.

Era Shaffy Goldwaer, criptógrafa del MIT, experta en descifrar sistemas de comunicación ocultos, el tipo de códigos que usan los gobiernos para proteger secretos.

Una IA descubre que el lenguaje de los cachalotes es casi tan complejo como el nuestro

Y al oír esos clics, no pensó en animales, pensó en código. Eso suena como código, morse, dijo.

Luego hizo una pregunta sencilla, pero que nadie había planteado antes. Han intentado usar aprendizaje automático para descifrarlo.

Gruber no lo había hecho. Nadie [música] lo había hecho. Pero para alguien entrenado en detectar estructuras ocultas, esos sonidos no eran ruido, eran un mensaje que nunca había pasado por un decodificador.

Esta conversación llevó a algo aún más grande, a un tercer nombre, Michael Bronstein, investigador en inteligencia artificial, alguien que entendía profundamente cómo los modelos modernos podían encontrar patrones donde los humanos solo veían [música] caos.

Su propuesta fue directa. Las mismas técnicas que estaban revolucionando el lenguaje humano, los modelos capaces de predecir palabras, traducir idiomas y generar texto, podrían en teoría aplicarse también a la comunicación animal.

Pero había una condición. Datos, muchísimos [música] datos y así comenzó una de las iniciativas científicas más ambiciosas de nuestro tiempo.

Durante los siguientes 5 años, un equipo formado por especialistas en IA, ingenieros robóticos, lingüistas y biólogos marinos, se propuso algo que sonaba casi imposible, intentar comunicarse con otra especie, no de forma simbólica, no interpretando comportamientos desde fuera, sino entrando por primera vez en su sistema.

Recopilarían más grabaciones de las que cualquier científico había reunido antes. Registrarían más contexto conductual que cualquier [música] estudio previo y utilizarían más potencia computacional que cualquier proyecto en biología marina.

En el año 2020 esta visión tomó forma oficial. Nació el proyecto SETI, la iniciativa de traducción de Cetácios, financiado por el TED Audaus Project y con la colaboración de instituciones como MIT, Harvard, UC Berkley y más de 15 organizaciones adicionales, [música] el equipo estableció una base permanente en Domínica, una isla en el Caribe donde familias de cachalotes han sido observadas durante generaciones.

Allí los investigadores no solo conocen a las ballenas como grupo, conocen a individuos. Las matriarcas tienen nombres, las familias están documentadas, las relaciones sociales han sido estudiadas durante décadas.

Dominica no fue elegida al azar. Es un lugar al que los clanes de cachalotes regresan año tras año, un punto fijo en un océano en constante movimiento, un lugar donde la historia de estas familias se ha ido registrando lentamente desde la superficie.

Pero esta vez el enfoque sería distinto, no solo observar, sino escuchar con una precisión sin precedentes.

El equipo desplegó arreglos de hidrófonos, micrófonos submarinos, de forma permanente a lo largo de las rutas de migración.

Colocaron dispositivos llamados biologgers directamente sobre la piel de las ballenas, utilizando ventosas que no causan daño.

Cada uno de estos dispositivos llevaba tres micrófonos sincronizados, capaces de distinguir la voz de cada individuo dentro de una conversación grupal.

Además, registraban ubicación GPS, profundidad, orientación corporal y movimientos con una precisión extrema. No solo querían saber qué sonidos se emitían, querían saber quién hablaba, a quién, en qué momento y qué estaba ocurriendo exactamente en ese instante.

Cada variable que pudiera aportar significado al sonido era registrada simultáneamente. Ese era el objetivo desde el principio, no solo capturar el lenguaje, sino construir el contexto necesario para algún día entenderlo.

El resultado fue una base de datos sin precedentes, 9000 grabaciones, miles de horas de interacción y una red de información que combinaba sonido, movimiento y comportamiento en tiempo real.

Cuando estos datos fueron procesados con modelos avanzados de inteligencia artificial, similares a los que permiten a sistemas como Chat GPT generar lenguaje, algo inesperado emergió.

Los sonidos no se parecían a las canciones armónicas de las ballenas jorobadas que muchos imaginaban.

No eran melódicos, no eran fluidos, eran precisos. Digitales, casi como transferencia de datos. Y lo que la IA encontró cambió todo.

No había 21 codas, había 156. Pero el número en realidad no era lo importante.

Lo importante era lo que había dentro de ellas. Cada coda tenía estructura interna, variaciones de ritmo, cambios de tempo, pequeños ornamentos de clicks que aparecían de forma consistente en ciertos patrones.

Inteligencia artificial para hablar con las ballenas: así es el proyecto de 'deep learning' para entender la comunicación de los cachalotes

Y esos elementos no eran decorativos, eran funcionales. Operaban como fonemas en el lenguaje humano, unidades pequeñas que por sí solas no significan nada, pero que al combinarse crean significado.

Las ballenas no estaban enviando un conjunto fijo de mensajes, no era un menú cerrado de señales, estaban construyendo su comunicación en tiempo real a partir de piezas modulares, un sistema finito capaz de generar una cantidad prácticamente infinita de expresiones.

Ese principio debería resultarte familiar. Porque es exactamente el mismo sobre el que se construyen todos los lenguajes humanos.

Piensa en el español, el inglés o cualquier otro idioma. No necesitamos millones de sonidos distintos para comunicarnos.

Utilizamos [música] un conjunto limitado de unidades básicas, fonemas, que al combinarse bajo ciertas reglas producen palabras y esas palabras a su vez producen ideas.

Por ejemplo, el inglés utiliza alrededor de 44 sonidos básicos para generar millones de palabras posibles.

Quita uno solo de esos sonidos y miles de palabras dejan de existir. Añade una nueva regla sobre cómo combinarlos y aparecen nuevas posibilidades.

Lo que los investigadores empezaron a ver es que los cachalotes parecen operar bajo exactamente el mismo principio.

Un inventario limitado de sonidos que da lugar a un sistema generativo abierto, flexible, capaz de expresar una variedad enorme de información.

Los clicks son las piezas, la estructura es la clave y lo que emerge es algo que se parece inquietantemente a una gramática, no una colección de señales, sino un sistema.

La doctora Daniela Rus del MIT lo resumió de forma cuidadosa ante los medios. Nuestros resultados muestran que hay mucha más complejidad de la que pensábamos, pero esa frase tan prudente esconde algo mucho más profundo, porque lo que se estaba observando no era una simple corrección de detalles, era un cambio de paradigma.

Durante mucho tiempo, una de las ideas más firmes en biología era que el lenguaje en el sentido estructural combinatorio, era exclusivo de los humanos, que ninguna otra especie había desarrollado algo con esa arquitectura y, sin embargo, algo en las profundidades del océano parecía haberlo hecho en silencio durante millones de años.

Luego llegó el análisis que hizo que incluso los expertos dudaran de sus propias bases.

Un lingüista de la Universidad de California en Berkley, llamado Gasper Begush decidió observar los datos desde otro ángulo.

En lugar de analizar secuencias completas de codas, se centró en el nivel más pequeño posible, los clics individuales, sus propiedades acústicas, su forma, su espectro y lo que encontró fue desconcertante.

Los cachalotes no solo producían patrones complejos, producían algo que al ser analizado con herramientas fonéticas modernas se comportaba como vojales, sonidos comparables al a de padre, al i de sí, incluso combinaciones deslizantes similares a los diptongos como oi.

Esto no era un detalle menor. Las vocales en el lenguaje humano no son simples sonidos, son el resultado de un control extremadamente preciso del aparato vocal.

Requieren una anatomía específica, un control fino del flujo de aire y una coordinación neural sofisticada.

Durante mucho tiempo se pensó que esa combinación era única de nuestra especie, el resultado de una evolución muy concreta, pero aquí estaba apareciendo en un animal que vive en completa oscuridad bajo una presión inmensa y que evolucionó en un entorno completamente distinto.

Vegus lo explicó de forma directa. Durante años pensamos que los sonidos de las ballenas eran como código morse, pero ahora vemos que se parecen más a vocales muy muy lentas.

Y esa comparación cambia todo porque implica algo fundamental. No se trata solo de complejidad, se trata de convergencia.

Dos linajes completamente distintos, humanos y cachalotes, llegando a una solución similar por caminos evolutivos totalmente diferentes.

Eso es lo que en biología se llama evolución convergente. Y cuando ocurre en algo tan específico como las vocales, la implicación es profunda.

Sugiere que este tipo de estructura no es un accidente, no es una rareza de la anatomía humana, podría ser una característica general de la inteligencia avanzada.

Durante mucho tiempo, el lenguaje había sido una de las últimas fronteras claras entre nosotros y el resto de la vida en la Tierra.

Fonemas, vocales, gramática, uso contextual. Todo eso parecía exclusivamente humano hasta [música] ahora. Y si esto te está impactando como impactó a los investigadores, asegúrate de suscribirte, porque lo que viene a continuación es aún más inquietante.

No se trata solo de que tengan las piezas, se trata de cómo las usan, porque aquí es donde la historia deja de ser solo técnica y empieza a volverse profundamente desconcertante.

Científicos inician proyecto para traducir idioma de las ballenas

Los cachalotes no solo poseen estas estructuras de forma aislada, las utilizan y lo hacen en contexto.

Eso cambia absolutamente todo. Un mismo individuo no emite siempre los mismos sonidos. Ajusta sus codas dependiendo de a quién se dirige, de lo que acaba de ocurrir y de lo que está pasando a su alrededor en ese momento.

Eso no es un sistema fijo, no es una señal automática, es uso pragmático del lenguaje, la capacidad de adaptar lo que se dice según la situación, exactamente como hacemos los humanos.

No hablamos igual con un niño que con un colega, no usamos el mismo tono en una discusión que en una despedida.

Modulamos nuestras palabras según la persona, el momento y la intención. Y eso es precisamente lo que los investigadores empezaron a observar bajo el agua.

Shane Geo, que ha pasado más de 13 años estudiando familias de cachalotes en domínica, describe estas interacciones desde la superficie y lo que cuenta no suena a comportamiento simple, suena familiar.

Crías que parecen jugar mientras conversan. Madres que dejan a sus crías con otras hembras antes de sumergirse a casar, intercambiando lo que parece una breve despedida.

Interacciones que duran hasta una hora. Múltiples individuos participando, respondiendo, [música] interrumpiendo, construyendo sobre lo que otros acaban de decir.

Hay ritmo, hay turnos, hay sincronización y a veces dos ballenas emiten sonidos al mismo tiempo.

Algo que, según Gero parece perfectamente aceptado dentro de su dinámica social, igual que interrumpir puede serlo en una familia humana cercana.

Piensa en lo que eso implica a nivel cognitivo para producir el sonido adecuado dirigido al individuo correcto en el momento preciso.

No basta con memoria, no basta con control acústico, se necesita algo más. Se necesita entender que el otro tiene su propia perspectiva, que no sabe lo mismo que tú y que lo que dices debe ajustarse a esa diferencia.

Eso es lo que en psicología se conoce como teoría de la mente. Durante mucho tiempo se consideró una capacidad exclusivamente humana.

Pero los investigadores que estudian cachalotes ya no están tan seguros, porque lo que ven en el agua no encaja con un modelo simple.

Hay individuos que hablan más, otros que participan menos, interacciones que parecen tensas, otras que parecen tranquilizadoras.

Algunas ocurren solo entre ciertos miembros del grupo, otras involucran a toda la familia. Y todo esto no es aleatorio.

La estructura social que observan en la superficie se refleja en los patrones acústicos que registran bajo el agua.

Las conversaciones están organizadas por relaciones, no por azar. Y los cerebros que sostienen estas interacciones no son pequeños, son los más grandes del planeta, aproximadamente seis veces más masivos que el cerebro e humano.

Los cachalotes viven en familias matrilineales, grupos multigeneracionales donde las abuelas, madres y crías comparten conocimientos que pueden transmitirse durante décadas, incluso siglos.

Tienen estrategias de casa coordinadas en completa oscuridad, moviéndose a grandes profundidades, sin referencias visuales, dependiendo completamente del sonido.

Y para que eso funcione, necesitan intercambiar información en tiempo real antes de cazar, mientras socializan, mientras se desplazan.

Estos no son animales simples, nunca lo fueron, simplemente se ata. No estábamos escuchando con la suficiente atención, pero aquí es donde debemos ser precisos, porque estructura no es lo mismo que significado.

La inteligencia artificial ha logrado mapear patrones, ha identificado unidades, ha modelado reglas de combinación, ha catalogado sonidos, ha distinguido individuos, ha registrado interacciones durante años.

Todo eso es real, todo eso está validado, pero aún no sabemos qué significa, qué quiere decir una secuencia concreta de codas, cuál es la diferencia entre un patrón acelerado y uno más lento está diciendo una madre a su cría en comparación con una matriarca dirigiéndose a todo el grupo?

Nadie lo sabe. Y esa diferencia entre entender la estructura de un lenguaje y entender [música] su contenido es el siguiente gran paso, porque comprender requiere correlación, requiere vincular sonido con acción, mensaje con contexto.

Los investigadores están construyendo exactamente eso, un archivo masivo donde cada vocalización se cruza con lo que estaba ocurriendo en ese instante.

Nuevas etiquetas biológicas registran audio desde múltiples micrófonos junto con profundidad, ubicación, orientación corporal y el sonido de todos los individuos cercanos.

Todo sincronizado, todo integrado, todo listo para ser analizado y cada nueva hora de grabación reduce un poco más ese vacío.

Ahora piensa en esto con calma. Un cachalote puede vivir alrededor de 70 años. Eso significa que una matriarca que nada oye en el océano podría haber nacido antes de que los humanos utilizaran sonar de forma extendida.

 


Durante toda su vida ha estado comunicándose con su familia, intercambiando información, transmitiendo conocimiento, advirtiendo, enseñando, recordando.

Todo en un sistema que la ciencia apenas ahora empieza a reconocer como algo que podría ser lenguaje.

Cada conversación, cada interacción, cada historia ocurrió en un idioma que no podíamos entender durante décadas, tal vez durante siglos, si consideramos generaciones completas.

Eso es lo que realmente está en juego aquí. El proyecto SETI no está entrando en ese mundo como un traductor con un diccionario completo.

Está entrando como un principiante, como alguien que acaba de aprender el alfabeto, intentando poco a poco asociar sonidos con significados, un comportamiento a la vez, una correlación a la vez.

Y con cada nuevo dato ese diccionario deja de estar completamente en blanco. Pero la pregunta importante es esta, ¿qué cambia si están en lo cierto?

Para entenderlo hay que mirar hacia atrás. En los años 60, investigadores como Roger Pay y Scott Mcbay demostraron que las ballenas jorobadas producen canciones complejas que evolucionan con el tiempo.

Antes de ese descubrimiento, la mayoría de las personas veía a las ballenas como animales grandes, sí, pero no especialmente sofisticados.

Eran parte del ecosistema, tenían valor económico, pero no ocupaban un lugar especial en términos de inteligencia.

Ese hallazgo lo cambió todo. Inspiró el movimiento Save the Whales, impulsó leyes como el Marine Mamal Protection Act y ayudó a evitar la extinción de varias especies.

Un solo descubrimiento sobre la mente de las ballenas reescribió la relación entre los humanos y el océano.

Ahora imagina lo que podría ocurrir si se demuestra algo aún más profundo. No canciones, no señales, sino un sistema lingüístico real con estructura, con combinaciones, con uso contextual.

Shaero lo explica de una pena forma muy clara. Cuando hablamos de la importancia de las abuelas en las familias de Cachalotes, de cómo cuidan a las crías, de cómo cooperan, de cómo mantienen tradiciones culturales, las personas empiezan a conectar porque dejan de ver animales y empiezan a ver comunidades.

Y eso cambia el comportamiento humano porque protegemos aquello con lo que nos identificamos y el lenguaje crea esa identificación.

Si el público llega a entender que los cachalotes no solo son inteligentes, sino que se comunican, que comparten información, que transmiten conocimiento de generación en generación, entonces cada ballena deja de ser una estadística y pasa a ser un individuo dentro de una sociedad.

Y eso tiene consecuencias no solo científicas, sino legales, morales, políticas. Algunos investigadores incluso plantean preguntas que antes parecían impensables.

Si una especie utiliza algo equivalente al lenguaje para mantener relaciones, compartir ideas y construir cultura.

¿Debería tener algún tipo de estatus legal especial? ¿Deberíamos hablar de persona no humana, de derechos?

Son preguntas que ya no suenan tan absurdas como antes, pero hay otra dimensión aún más incómoda.

Durante el siglo XX, la casa comercial mató a cientos de miles de cacha. Hoy en día los barcos siguen causando muertes cada año y hay algo más, el ruido.

El océano moderno está lleno de sonido artificial, motores, tráfico marítimo, sonar militar. Todo eso invade el espacio acústico en el que estas especies dependen completamente del sonido para vivir, para cazar, para orientarse, para comunicarse.

Si ese sistema es realmente lenguaje, entonces no estamos solo contaminando el océano, estamos interfiriendo en una red de comunicación, en conversaciones, en transmisión de conocimiento, en cultura, todos los días, durante décadas.

Y eso plantea otra pregunta difícil. Si una comunidad depende del sonido para sostener su vida social, ¿qué significa llenar ese espacio de ruido constante?

Algunos expertos empiezan a verlo no solo como daño ambiental, sino como algo más cercano a la interrupción de una cultura, a la erosión de su capacidad de comunicarse.

Y mientras todo esto ocurre, la inteligencia artificial sigue trabajando, los datos siguen creciendo y se acerca un momento que nadie sabe cómo manejar.

El día en que alguien mire una pantalla y no vea solo patrones, [música] sino palabras.

Y entonces llegará la pregunta para la que nadie está preparado. ¿Qué han estado diciendo durante 70 años?

¿Qué [música] le ha dicho una matriarca a su familia? ¿Qué le dijo una madre a su cría la primera vez que un barco humano pasó sobre ellas?

¿Qué comentan sobre el cambio del océano? Sobre la desaparición de su alimento, sobre el ruido que ahora llena cada rincón del mar.

Porque los cachalotes que viven hoy han observado el mundo cambiar desde dentro. Han perdido miembros de su familia, han escuchado peligros acercarse sin poder evitarlos, han vivido en un entorno cada vez más alterado.

Y si realmente tienen un sistema de comunicación complejo, entonces han estado hablando de todo esto, han estado hablando de nosotros y eso es lo que el proyecto SETI está intentando alcanzar, no solo traducir sonidos, sino descifrar una perspectiva del planeta que ha existido durante millones de años, una perspectiva que ha visto llegar a los humanos y transformar el océano.

El proyecto planea además compartir sus datos de forma abierta, invitar a la comunidad global a participar, a aprender, a explorar, porque este no es solo un descubrimiento científico, es una puerta, una que apenas estamos empezando a abrir.

Ya hemos identificado el alfabeto, hemos encontrado las vocales, sabemos que el sistema existe, pero el mensaje el mensaje fue enviado mucho antes de que empezáramos a escuchar millones de veces durante millones de años en un idioma que apenas estamos comenzando a comprender y todavía no sabemos qué dice.