Antes de mudarse a Alaska por capricho a los veinte años, Michelle Fournet nunca había visto una ballena. Aceptó un trabajo en un barco de avistamiento y, cada día que pasaba en el agua, contemplaba las grandes formas que se movían bajo la superficie. Se dio cuenta de que, durante toda su vida, el mundo natural había estado ahí afuera, y ella se lo había estado perdiendo. "Ni siquiera sabía que estaba desamparada", recuerda. Más tarde, como estudiante graduada en biología marina, Fournet se preguntó de qué más se estaba perdiendo. Las ballenas jorobadas que estaba empezando a conocer se mostraban en atisbos parciales. ¿Y si pudiera oír lo que decían? Lanzó un hidrófono al agua, pero el único sonido que captó fue el ruido mecánico de los barcos. Las ballenas se habían callado en medio del barullo. De la misma manera que Fournet había descubierto la naturaleza, estaba siendo testigo de su retroceso. Decidió ayudar a las ballenas. Pero para ello, tenía que aprender a escucharlas.
Diccionario de ballenas
Fournet, ahora profesora de la Universidad de New Hampshire y directora de un colectivo de científicos conservacionistas, ha pasado la última década elaborando un catálogo de los diversos chirridos, chillidos y gemidos que emiten las ballenas jorobadas en su vida cotidiana. Las ballenas tienen vocabularios enormes y diversos, pero hay una cosa que todas dicen, ya sean machos o hembras, jóvenes o viejas. Para nuestros deficientes oídos humanos, suena como un rugido de vientre salpicado por una gota de agua: uop.
Fournet cree que las ballenas se anuncian unas a otras. Una manera de decir “aquí estoy”. El año pasado, como parte de una serie de experimentos para probar su teoría, Fournet pilotó un esquife en el estrecho Frederick de Alaska, donde las ballenasjorobadas se reúnen para alimentarse de nubes de kril, un tipo de crustáceo. Transmitió una secuencia de llamadas uop y grabó lo que hacían las ballenas en respuesta. Luego, de vuelta en la playa, se puso los audífonos y escuchó el audio. Sus llamadas se apagaron. Las voces de las ballenas regresaron a través del agua: uop, uop, uop. Fournet lo describe así: "las ballenas oyeron una voz que decía 'Soy yo, estoy aquí, yo soy yo". Y ellas respondieron: "Yo también soy, yo estoy aquí, yo soy yo".
Los biólogos utilizan este tipo de experimento, llamado playback, para estudiar qué impulsa a un animal a hablar. Los playbacks de Fournet han utilizado hasta ahora grabaciones de uops reales. Pero el método es imperfecto, porque las ballenas jorobadas prestan mucha atención a su interlocutor. Si una ballena reconoce la voz de la ballena en la grabación, ¿cómo afecta eso a su respuesta? ¿Habla con una amiga de forma diferente a como lo haría con un extraño? Como biólogo, ¿cómo te aseguras de que estás enviando un uop neutral?
Los animales están desapareciendo
Una respuesta es crear el suyo propio. Fournet ha compartido su catálogo de llamadas de las jorobadas con el Earth Species Project, un grupo de tecnólogos e ingenieros que, con la ayuda de la IA, pretenden desarrollar un uop sintético. Y no solo pretenden emular la voz de una jorobada. La misión de esta organización sin fines de lucro es abrir los oídos humanos al parloteo de todo el reino animal. Dentro de 30 años, afirman, los documentales sobre la naturaleza no necesitarán una narración relajante al estilo de Attenborough, porque el diálogo de los animales en pantalla estará subtitulado. Y del mismo modo que hoy los ingenieros no necesitan saber mandarín o turco para construir un chatbot en esos idiomas, pronto será posible construir un bot que hable jorobado, colibrí, murciélago, o abeja.
La idea de "descodificar" la comunicación animal es audaz, quizás increíble, pero una época de crisis exige medidas audaces e increíbles. En todas partes donde hay humanos (que es en todas partes) los animales están desapareciendo. Según una estimación, las poblaciones de animales salvajes de todo el planeta han disminuido una media de casi el 70% en los últimos 50 años, y eso es solo la parte de la crisis que los científicos han medido. Miles de especies podrían desaparecersin que los humanos sepamos nada de ellas.
Para descarbonizar la economía y preservar los ecosistemas, no necesitamos hablar con los animales. Pero cuanto más sepamos sobre las vidas de otras criaturas, mejor podremos cuidarlas. Y los humanos, como somos humanos, prestamos más atención a quienes hablan nuestro idioma. La interacción que Earth Species quiere hacer posible, según Fournet, “ayuda a una sociedad desconectada de la naturaleza a reconectar con ella”. La mejor tecnología ofrece a los humanos una forma de habitar el mundo con mayor plenitud. En ese sentido, hablar con los animales podría ser su aplicación más natural hasta ahora.
Hablar con los animales
Los humanos siempre han sabido escuchar a otras especies, por supuesto. A lo largo de la historia, los pescadores han colaborado con ballenas y delfines en beneficio mutuo: un pez para ellos, un pez para nosotros. En la Australia del siglo XIX, una manada de orcas reunía a las ballenas barbadas en una bahía cercana a un asentamiento ballenero y luego golpeaban sus colas para alertar a los humanos de que prepararan los arpones (a cambio de su ayuda, las orcas tenían preferencia en sus cortes favoritos, los labios y la lengua). Mientras tanto, en las gélidas aguas de Beringia, los inupiat escuchaban y hablaban con las ballenas de Groenlandia antes de sus cacerías. Como escribe la historiadora medioambiental Bathsheba Demuth en su libro Floating Coast, los inupiat consideraban a las ballenas como vecinos que ocupaban "su propio país" y que a veces decidían ofrecer su vida a los humanos, si estos se lo merecían.
Los balleneros comerciales tenían un enfoque diferente. Veían a las ballenas como contenedores flotantes de grasa y barbas. La industria ballenera estadounidense de mediados del siglo XIX, y luego la industria ballenera mundial del siglo siguiente, casi aniquilaron varias especies, lo que dio lugar a una de las mayores pérdidas de vida animal salvaje causadas por el hombre. En la década de 1960 se mataron 700,000 ballenas, lo que marcó el punto álgido de la muerte de cetáceos. Entonces ocurrió algo extraordinario: oímos cantar a las ballenas. En un viaje a las Bermudas, los biólogos Roger y Katy Payne conocieron a un ingeniero naval estadounidense llamado Frank Watlington, quien les dio grabaciones que había hecho de extrañas melodías captadas en las profundidades del agua. Durante siglos, los marineros habían contado historias de extrañas canciones que emanaban de los cascos de madera de sus barcos, ya fueran monstruos o sirenas que desconocían. Watlington creía que los sonidos eran de ballenas jorobadas. Vayan a salvarlas, les dijo a los Payne. Y así lo hicieron, publicando el álbum Songs of the Humpback Whale (Canciones de la ballena jorobada), que hizo famosas a estas ballenas cantoras. Poco después surgió el movimiento Save the Whales. En 1972, Estados Unidos aprobó la Ley de Protección de Mamíferos Marinos; en 1986, la Comisión Ballenera Internacional prohibió la caza comercial de ballenas. En apenas dos décadas, las ballenas se habían transformado ante los ojos del público en gigantes marinos cognitivamente complejos y amables.
Roger Payne, fallecido a principios de este año, hablaba con frecuencia de su convicción de que cuanto más pudiera saber el público "cosas curiosas y fascinantes" sobre las ballenas, más se preocuparía la gente de lo que les ocurría. En su opinión, la ciencia por sí sola nunca cambiaría el mundo, porque los seres humanos no responden a los datos, sino a las emociones, a las cosas que les hacen llorar de asombro o estremecerse de placer. Estaba a favor del turismo ecológico, los zoológicos y los espectáculos con delfines en cautiverio. Creía que, por muy perjudicial que sea el trato que reciben los animales en esos lugares, la extinción de una especie es mucho peor. Desde entonces, los conservacionistas se han aferrado a la idea de que el contacto con los animales puede salvarlos.
Conocernos para salvarnos
Partiendo de esta premisa, Earth Species está dando el salto imaginativo de que la IA puede ayudarnos a establecer un primer contacto con los animales. Los fundadores de la organización, Aza Raskin y Britt Selvitelle, son arquitectos de nuestra era digital. Raskin creció en Silicon Valley; su padre inició el proyecto Macintosh de Apple en los setentas. Al principio de su carrera, Raskin ayudó a crear Firefox, y en 2006 creó el scroll infinito, posiblemente su mayor y más cuestionable legado. Arrepentido, más tarde calculó las horas humanas colectivas que su invento había malgastado y llegó a una cifra que superaba las 100,000 vidas por semana.
Raskin pasaba a veces el rato en una startup llamada Twitter, donde conoció a Selvitelle, uno de los empleados fundadores. Siguieron en contacto. En 2013, Raskin escuchó en la radio una noticia sobre monos gelada, en Etiopía, cuya comunicación tenía cadencias similares al habla humana. Tan parecidas, de hecho, que el científico principal a veces oía una voz que le hablaba, se daba la vuelta y se sorprendía al encontrar allí a un mono. El entrevistador preguntó si había alguna forma de saber lo que intentaban decir. No la había, pero Raskin se preguntó si sería posible llegar a una respuesta con el aprendizaje automático. Le planteó la idea a Selvitelle, que se interesaba por el bienestar animal.
Durante un tiempo, la idea no pasó de ser eso. Luego, en 2017, nuevas investigaciones demostraron que las máquinas podían traducir entre dos idiomas sin necesidad de ser entrenadas primero con textos bilingües. Google Translate siempre había imitado la forma en que un humano podría usar un diccionario, solo que más rápido y a escala. Pero estos nuevos métodos de aprendizaje automático prescindían por completo de la semántica. Trataban las lenguas como formas geométricas y descubrían dónde se solapaban. Si una máquina podía traducir cualquier idioma al inglés sin necesidad de entenderlo primero, pensó Raskin, ¿podría hacer lo mismo con el bamboleo de un mono gelada, el infrasonido de un elefante o el baile de una abeja? Un año después, Raskin y Selvitelle crearon Earth Species.
Raskin cree que la capacidad de escuchar a los animales a escondidas provocará nada menos que un cambio de paradigma tan importante históricamente como la revolución copernicana. Le gusta decir que “la IA es la invención de la óptica moderna”. Con esto quiere decir que, al igual que las mejoras del telescopio permitieron a los astrónomos del siglo XVII percibir estrellas recién descubiertas y desplazar por fin la Tierra del centro del cosmos, la IA ayudará a los científicos a oír lo que sus oídos por sí solos no pueden: que los animales hablan con sentido, y de más formas de las que podemos imaginar. "Esta vez miraremos al universo y descubriremos que la humanidad no es el centro", pronostica Raskin.
¿Quién dice qué?
Raskin y Selvitelle pasaron los primeros años reuniéndose con biólogos y acompañándolos en el trabajo de campo. Pronto se dieron cuenta de que la necesidad más obvia e inmediata que tenían ante sí no era incitar a la revolución. Era ordenar datos. Hace dos décadas, un investigador de primates se colocaba bajo un árbol y sostenía un micrófono en el aire hasta que se le cansaba el brazo. Ahora los investigadores pueden pegar un biologger portátil a un árbol y recoger un flujo continuo de audio durante un año. Los muchos terabytes de datos resultantes son más de lo que cualquier ejército de estudiantes de posgrado podría llegar a procesar. Pero si se alimenta todo este material con algoritmos de aprendizaje automáticoentrenados, la computadora puede escanear los datos y marcar las llamadas de los animales. Puede distinguir un silbido de un chillido. La voz de un gibón de la de su hermano. Al menos, eso esperamos. Estas herramientas necesitan más datos, investigación y financiamiento. Earth Species tiene una plantilla de 15 personas y un presupuesto de unos pocos millones de dólares. Se han asociado con varias docenas de biólogos para empezar a avanzar en estas tareas prácticas.
Uno de los primeros proyectos abordó uno de los retos más importantes de la investigación sobre comunicación animal, conocido como el problema de la fiesta de cóctel: cuando un grupo de animales habla entre sí, ¿cómo saber quién dice qué? En mar abierto, miles de delfines charlan a la vez; los científicos que los graban obtienen un audio tan repleto de silbidos y chasquidos como un estadio repleto de vítores. Según Laela Sayigh, experta en silbidos de delfines mulares, incluso las grabaciones de dos o tres animales son a menudo inutilizables, porque no se sabe dónde deja de hablar un delfín y empieza otro (el video no ayuda, porque los delfines no abren la boca cuando hablan). Earth Species utilizó la extensa base de datos de silbidos característicos de Sayigh (los que se asemejan a los nombres) para desarrollar un modelo de red neuronal que pudiera separar las voces superpuestas de los animales. Ese modelo solo era útil en condiciones de laboratorio, pero la investigación está pensada para seguir avanzando. Un par de meses después, Google AI publicó un modelo para desentrañar el canto de los pájaros salvajes.
Sayigh ha propuesto una herramienta que pueda servir de alerta de emergencia en caso de encallamientos masivos de delfines, que suelen repetirse en ciertos lugares del planeta. Vive en Cape Cod, Massachusetts, uno de esos puntos de conflicto donde hasta una decena de veces al año grupos de delfines se desorientan, nadan inadvertidamente hasta la costa y mueren. Afortunadamente, podría haber una forma de predecirlo antes de que ocurra, advierte Sayigh. Su hipótesis es que, cuando los delfines están estresados, emiten silbidos característicos más de lo normal, como alguien que se pierde en una tormenta de nieve y grita presa del pánico. Una computadora entrenada para escuchar estos silbidos podría enviar una alerta a los rescatadores para que desvíen a los delfines antes de que lleguen a la playa. En el Mar de Salish (donde, en 2018, una madre orca que remolcaba el cuerpo de su cría famélica atrajo la simpatía del mundo) hay un sistema de alerta, construido por Google AI, que escucha a las orcas residentes y desvía a los barcos fuera de su camino.
El sueño del Dr. Dolittle
Tanto para investigadores como para conservacionistas, las aplicaciones potenciales del aprendizaje automático son básicamente ilimitadas. Y Earth Species no es el único grupo que trabaja en la descodificación de la comunicación animal. Payne pasó los últimos meses de su vida asesorando para el Proyecto CETI, una organización sin fines de lucro que este año construyó una base en Dominica para el estudio de la comunicación de los cachalotes. "Imagínense lo que sería posible si entendiéramos lo que los animales se dicen unos a otros; lo que ocupa sus pensamientos; lo que aman, temen, desean, evitan, odian, les intriga y atesoran", escribió en Time.
Muchas de las herramientas que Earth Species ha desarrollado hasta ahora ofrecen más una base que una utilidad inmediata. Aun así, hay mucho optimismo en este campo incipiente. Varios biólogos me dijeron que, con recursos suficientes, la descodificación es científicamente factible. Pero eso es solo el principio. La verdadera esperanza es salvar el abismo entre entender la experiencia de un animal y la nuestra, por muy grande o pequeño que sea.
Ari Friedlaender tiene algo que Earth Species necesita: muchos, muchos datos. Friedlaender investiga el comportamiento de las ballenas en la UC Santa Cruz. Empezó a trabajar como observador, la persona que se mantiene en equilibrio en el borde de un barco mientras persigue a una ballena, sostiene un palo largo con una etiqueta de biología con ventosa en el extremo y la coloca en el lomo de la ballena cuando esta se acerca a la superficie. Es más difícil de lo que parece. Friedlaender demostró ser un experto ("hice deporte en la universidad", explica) y pronto empezó a viajar por los mares en expediciones de marcado.
Un día en la vida de una ballena
Las marcas que utiliza Friedlaender capturan una cantidad de datos extraordinaria. Cada una registra no solo la ubicación GPS, la temperatura, la presión y el sonido, sino también video de alta definición y datos de acelerómetros de tres ejes, la misma tecnología que utiliza un Fitbit para contar los pasos o medir la profundidad del sueño. En conjunto, los datos ilustran con detalle cinematográfico un día en la vida de una ballena: cada respiración y cada zambullida, sus travesías por campos de ortigas y medusas, sus encuentros con leones marinos.
Friedlaender me muestra una animación realizada a partir de los datos de una marca. En ella, una ballena desciende y da vueltas por el agua, recorriendo un circuito tridimensional multicolor, como si estuviera en una pista submarina de Mario Kart. Otra animación muestra a varias ballenas soplando redes de burbujas, una estrategia de alimentación en la que nadan en círculos alrededor de grupos de peces, los atrapan en el centro con una pared de burbujas y se lanzan a través de ellas con la boca abierta. Observando los movimientos de las ballenas, me doy cuenta de que, mientras la mayoría ha trazado una espiral ordenada, una ballena ha producido una maraña de torpes zigzags. "Probablemente sea un animal joven", señala Friedlaender. "Esa aún no se ha enterado de nada".
Los datos polifacéticos de Friedlaender son especialmente útiles para Earth Species porque, como te dirá cualquier biólogo, la comunicación animal no es puramente verbal. Implica gestos y movimientos con la misma frecuencia que vocalizaciones. Los diversos conjuntos de datos acercan a Earth Species al desarrollo de algoritmos que puedan funcionar en todo el espectro del reino animal. El trabajo más reciente de la organización se centra en los modelos fundacionales, el mismo tipo de computación que impulsa IA generativa como ChatGPT. A principios de este año, Earth Species publicó el primer modelo básico de comunicación animal. El modelo ya puede clasificar con precisión las llamadas de las belugas, y Earth Species planea aplicarlo a especies tan dispares como los orangutanes (que braman), los elefantes (que envían estruendos sísmicos a través del suelo) y las arañas saltarinas (que hacen vibrar sus patas). Katie Zacarian, Directora General de Earth Species, describe así el modelo: "todo es un clavo, y esto es un martillo".
Otra aplicación de la IA de Earth Species es generar llamadas de animales, como una versión sonora de GPT. Raskin ha creado un chirrido de pocos segundos de un pájaro mosquitero. Si esto suena a que se está adelantando a la descodificación, es porque es así; la IA, tal como resulta, es mejor hablando que entendiendo. Earth Species está descubriendo que las herramientas que está desarrollando probablemente tendrán la capacidad de hablar con los animales incluso antes de que puedan descodificar. Pronto será posible, por ejemplo, incitar a una IA con un uop y hacer que continúe una conversación en jorobado, sin que los observadores humanos sepan lo que la máquina o la ballena están diciendo.
Nadie espera que esto ocurra, pues sería científicamente irresponsable. Los biólogos que trabajan con Earth Species están motivados por el conocimiento, no por el diálogo. Felix Effenberger, asesor principal de investigación sobre IA de Earth Species, me dijo: “No creo que vayamos a tener un traductor inglés-delfín, ¿OK? En el que pones ‘inglés’ en tu smartphone y este emite sonidos de delfín y el delfín va a buscarte un erizo de mar. El objetivo es descubrir primero patrones básicos de comunicación".
¿Cómo sonará hablar con los animales?
No tiene por qué ser una conversación libre para resultar asombrosa. Hablarle a los animales de forma controlada, como con los uops de reproducción de Fournet, es probablemente esencial para que los científicos intenten comprenderles. Al fin y al cabo, uno no intentaría aprender alemán yendo a una fiesta en Berlín y sentándose en silencio en un rincón.
Los aficionados a los pájaros ya utilizan aplicaciones para extraer melodías del aire e identificar qué especie está cantando. Con una IA como intérprete de animales, imagínate qué más podrías aprender. Si le pides que emita el sonido de dos jorobadas encontrándose, emite un uop. Si le pides que haga el sonido de una cría hablando con su madre, produce un susurro. Si se le pide que emita el sonido de un macho enamorado, suelta una canción.
Ninguna especie de ballena ha sido extinguida por la humanidad. Eso no es una victoria. Los números son solo una medida de la biodiversidad. La vida de los animales es rica en todo lo que dicen y hacen, en cultura. Aunque las poblaciones de ballenasjorobadas se han recuperado desde su punto más bajo hace medio siglo, ¿qué canciones, qué prácticas han perdido desde entonces? Las ballenas azules, cazadas hasta reducirse al 1% de su población, podrían haberlo perdido casi todo.
Christian Rutz, biólogo de la Universidad de St. Andrews, cree que una de las tareas esenciales de la conservación es preservar las formas de ser no humanas. "No estás preguntando: ‘¿Estás ahí o no estás ahí?’", aclara. "Estás preguntando: ‘¿Estás ahí y eres feliz, o infeliz?’".
Rutz estudia cómo ha cambiado la comunicación de los cuervos hawaianos desde 2002, cuando se extinguieron en libertad. Un centenar de estas extraordinarias aves (una de las pocas especies de las que se sabe que utilizan herramientas) viven en cautiverio protegido, y los conservacionistas esperan reintroducirlas en su hábitat natural. Pero puede que estos cuervos aún no estén preparados. Hay indicios de que las aves cautivas han olvidado un vocabulario útil, incluidas las llamadas para defender su territorio y advertir de los depredadores. Rutz trabaja con Earth Species en la creación de un algoritmo que filtre las grabaciones históricas de los cuervos salvajes extintos, extraiga todas sus llamadas y las etiquete. Si descubren que efectivamente se perdieron, los conservacionistas podrían generar esas llamadas para enseñárselas a las aves cautivas.
Rutz se cuida de decir que la generación de llamadas será una decisión que se tomará meditadamente, cuando el momento lo requiera. En un artículo publicado en Science en julio, elogiaba la extraordinaria utilidad del aprendizaje automático. Pero advierte que los humanos deben pensárselo mucho antes de intervenir en la vida de los animales. Al igual que el potencial de la IA sigue siendo desconocido, puede conllevar riesgos que van más allá de lo que podemos imaginar. Rutz cita como ejemplo las nuevas canciones que componen cada año las ballenas jorobadas y que se extienden por todo el mundo como hits. Si estas ballenas captaran una frase generada por la IA y la incorporaran a su rutina, los humanos estarían alterando una cultura de un millón de años de antigüedad. "Creo que es uno de los sistemas que deberían estar fuera de los límites, al menos por ahora", me dijo. "¿Quién tiene derecho a charlar con una ballena jorobada?".
¿Será buena idea hablar con ballenas en primer lugar?
No es difícil imaginar cómo se podría hacer un mal uso de la IA que habla con los animales. Los balleneros del siglo XX también emplearon la nueva tecnología de su época, emitiendo un sonar a una frecuencia que hacía que las ballenas salieran a la superficie presas del pánico. Pero las herramientas de IA son tan buenas o malas como las cosas que los humanos hacen con ellas. Tom Mustill, documentalista especializado en conservación y autor de How to Speak Whale (Cómo hablar ballena), sugiere que se dediquen a la investigación de la descodificación animal los mismos recursos que a las iniciativas científicas más populares, como el Gran Colisionador de Hadrones, el Proyecto Genoma Humano y el telescopio espacial James Webb. "Con tantas tecnologías", me dijo, "se deja que la gente que las ha desarrollado haga lo que quiera hasta que el resto del mundo se ponga al día. Esto es demasiado importante para dejar que eso ocurra".
Se están invirtiendo miles de millones de dólares en empresas de IA, en gran parte al servicio de los beneficios corporativos: escribir correos electrónicos más rápidamente, crear fotos de archivo de forma más eficiente, distribuir anuncios con más efectividad. Mientras tanto, los misterios del mundo natural permanecen. Una de las pocas cosas que los científicos saben con certeza es lo mucho que desconocen. Cuando le pregunto a Friedlaender si pasar tanto tiempo persiguiendo ballenas le ha enseñado mucho sobre ellas, me dice que a veces se pone a sí mismo una sencilla prueba: después de que una ballena se sumerge en la superficie, intenta predecir por dónde volverá a salir. "Cierro los ojos y digo: 'Vale, he colocado 1,000 etiquetas en mi vida, he visto todos estos datos. La ballena va a estar por aquí'. Y la ballena siempre está por allá", manifiesta. "No tengo ni idea de lo que hacen estos animales".
Si pudieras hablar con una ballena, ¿qué le dirías? ¿Le preguntarías a Gladis Blanca, la orca que se convirtió en meme este verano por hundir yates frente a la costa ibérica, qué motivó su ataque: diversión, delirio, venganza? ¿Le dirías a Tahlequah, la orca que llora la muerte de su cría, que tú también has perdido un hijo? Payne dijo una vez que si tuviera la oportunidad de hablar con una ballena, le gustaría oír sus cotilleos habituales: amores, rencillas, infidelidades. También: "Lo siento sería una buena palabra para decir".
Luego está ese viejo y espinoso problema filosófico. La cuestión del umwelt, y cómo es ser un murciélago, o una ballena, o tú. Aunque pudiéramos hablar con una ballena, ¿entenderíamos lo que dice? ¿O su percepción del mundo, su ordenación de la conciencia, sería tan extraña que resultaría ininteligible? Si las máquinas representan las lenguas humanas como formas que se superponen, quizá el inglés sea una dona y el ballenato el hoyo.
Tal vez, antes de poder hablar con una ballena, haya que saber lo que es tener el cuerpo de una ballena. Es un cuerpo 50 millones de años más antiguo que el nuestro. Un cuerpo moldeado para el mar, para moverse sin esfuerzo por profundidades aplastantes, para contrarrestar el frío con pura masa. Como una ballena, tú eliges cuándo respirar, o no. La mayoría de las veces aguantas la respiración. Por eso, no puedes oler ni saborear. No tienes manos para tocar las cosas. Tus ojos son funcionales, pero la luz del sol penetra mal en el agua. Normalmente ni siquiera puedes distinguir tu propia cola a través de la niebla.
No sabemos lo que es ser una ballena
Vivirías en una nube de oscuridad desesperante si no fuera por tus oídos. El sonido viaja más lejos y más rápido por el agua que por el aire, y tu mundo está iluminado por él. Para ti, todos los rincones oscuros del océano suenan. Oyes el golpeteo de la lluvia en la superficie, el aleteo del krill, las explosiones de los taladros petrolíferos. Si eres un cachalote, pasas la mitad de tu vida en las profundidades marinas, cazando calamares al oído. También utilizas el sonido para hablar, igual que los humanos. Pero tu voz, en lugar de disiparse instantáneamente en la delgada sustancia del aire, se mantiene. Algunas ballenas pueden gritar más fuerte que un motor a reacción, y sus gritos recorren 16,000 kilómetros a través del fondo del océano.
Pero, ¿cómo es ser tú, una ballena? ¿Qué piensas, qué sientes? Para los científicos es mucho más difícil saberlo. Algunas pistas provienen de la observación de cómo hablas con los de tu especie. Si naces en una manada de orcas, muy unida y xenófoba, una de las primeras cosas que te enseñan tu madre y tu abuela es el nombre de tu clan. Pertenecer debe sentirse esencial (recuerden a Keiko, la orca que protagonizó la película Liberen a Willy: Cuando lo soltaron en sus aguas natales a una edad avanzada, no logró volver a unirse a la compañía de ballenas salvajes y, en su lugar, regresó para morir entre humanos). Si eres un cachalote hembra, chasqueas a tus compañeros de clan para coordinar quién cuida a la cría de quién; mientras tanto, las crías balbucean de vuelta. Vives en movimiento, nadando constantemente hacia nuevas aguas, cultivando una disposición nerviosa y vigilante. Si eres un macho jorobado, te pasas el tiempo cantando solo en las heladas aguas polares, lejos de tu compañero más cercano. Inferir soledad, sin embargo, sería un error humano. Para una ballena cuya voz atraviesa océanos, quizá la distancia no signifique soledad. Tal vez, mientras canta, siempre está en conversación.
Michelle Fournet se pregunta: ¿Cómo sabemos que las ballenas querrían hablar con nosotros? Lo que más le gusta de las ballenas jorobadas es su indiferencia. "Este animal mide 40 pies [12 metros] y pesa 75,000 libras [34,000 kilogramos], y le importas una mierda", me dijo. “Cada respiración que hace es más grandiosa que toda mi existencia”. Roger Payne observó algo parecido. Consideraba a las ballenas el único animal capaz de una hazaña imposible: hacer que los humanos se sintieran pequeños.
Una mañana temprano en Monterey, California, subí a un barco de avistamiento de ballenas. El agua era gris pizarra con picos blancos. Bandadas de pequeños pájaros revoloteaban por la superficie. Aparecieron tres ballenas jorobadas, con los lomos redondeándose nítidamente fuera del agua. Mostraron algo de cola, lo que fue bueno para los fotógrafos del grupo. La línea escarpada de la aleta caudal se puede utilizar, como una huella dactilar, para distinguir ballenas individuales.
Más tarde, subí una foto de una de las ballenas a Happywhale. El sitio identifica a las ballenas mediante un algoritmo de reconocimiento facial modificado para las aletas caudal. La ballena jorobada que envié, con la cola incrustada de percebes, apareció como CRC-19494. Hace diecisiete años, esta ballena había sido avistada frente a la costa occidental de México. Desde entonces, había recorrido el Pacífico entre Baja California y la bahía de Monterey. Por un momento, me impresionó que este sitio pudiera sacar tan fácilmente un animal del océano y darme un nombre. Pero, ¿qué sabía yo de esta ballena? ¿Era una madre, un padre? ¿Era realmente feliz esta ballena de Happywhale? La IA no tenía respuestas. Busqué en el perfil de la ballena y encontré una galería de fotos, desde diferentes ángulos, de una aleta barnacla. Por ahora, eso era todo lo que podía saber.
Artículo originalmente publicado en WIRED. Adaptado por Andrea Baranenko.
No hay comentarios:
Publicar un comentario