lenguaje

Sentimientos sin rostro

Posted on

El autismo no es una enfermedad, sino un síndrome. Es decir: un conjunto de síntomas que se presentan juntos, y que caracterizan un trastorno
El autismo no es una enfermedad, sino un síndrome. Es decir: un conjunto de síntomas que se presentan juntos, y que caracterizan un trastorno

Las personas con autismo presentan problemas a la hora de identificar sus propias emociones, lo que les provoca dificultades también en la relaciones interpersonales y constituye todo un reto con el que convivir.

Aunque esto no quiere decir que no sientan, rían, sufran y se expresen de peculiares formas, las personas con Trastorno del Espectro Autista (TEA) sufren de alexitimia, es decir, la “dificultad de ponerle nombre a las emociones”.

Precisamente por esto, debe apostarse más por la terapia emocional a la hora de tratar a los pacientes.

Habitualmente se desecha por completo la terapia emocional y en la etapa juvenil y adulta existe una repercusión que parte de una alteración del neurodesarrollo que se manifiesta a muy temprana edad y que se expresa de manera diferente en cada persona.

La características principales son batacazos persistentes en las relaciones sociales, patrones de conducta repetitivos e intereses limitados.

Asimismo, las personas con autismo no tienen problemas de lenguaje, tienen problemas de comunicación.

Existe en ellos una verdadera dificultad para comprender el entorno social, el lenguaje no verbal, el lenguaje verbal, las señas, los guiños, esto que comunicamos con el cuerpo que para todos nosotros es sencillo pero para ellos es sumamente complejo.

Esto se explica porque para relacionarse con gente se requiere una inteligencia dinámica que ellos no tienen tan desarrollada.

En cambio, utilizan la inteligencia estática, esencial para actividades como utilizar la computadora, que habitualmente supone “un refugio” para este tipo de personas.

Con todo, lo predecible -como es el caso de la tecnología- es un alivio para ellos, ya que todo lo que irrumpe en su tranquilidad, como ruidos o cambios bruscos, les perturba.

De ahí este gran interés que ellos muestran en las cosas muy objetivas, muy constantes, los juegos de vídeo, las computadoras, no porque sean súper genios en eso, en realidad es como una especie de refugio donde no les cuesta trabajo estar.

Las personas dentro del espectro presentan un estilo de pensamiento rígido, lineal, con intereses muy restringidos que les arrojan a buscar un tipo de actividades y rutinas que les dan tranquilidad.

Y es que enfrentarse a la interacción social puede provocarles crisis de ansiedad en algunas ocasiones extremas.

Los casos de autismo van en aumento, y ha habido una variación considerable en las estadísticas, que hace 20 años marcaban que una de cada 10.000 personas estaba dentro del espectro autista. Ahora, un niño de cada 160 padece un trastorno del espectro autista.

Estos datos son alarmantes y el incremento puede atribuirse a los factores genéticos predisponentes y los detonantes ambientales que hacen que determinados genes se expresen.

No es que lo provoquen, pero un individuo con esa predisposición genética que está expuesto a todos estos factores ambientales de alta toxicidad puede tener más posibilidades de que esos genes se expresen.

El autismo viene acompañado de una alta frecuencia de problemas médicos concomitantes como alteraciones mitocondriales y alteraciones del sistema inmunológico.

Este trastorno no tiene cura, sin embargo, la calidad de vida de las personas mejora si reciben una atención temprana, personalizada, adecuada a sus necesidades y a lo largo de toda su vida.

Anuncios

Guerra contra la pedantería a la hora de cenar

Posted on Actualizado enn

Alrededor de una mesa pueden confluir todo tipo de tics, que en una conversación desnudan a los pedantes pertinaces
Alrededor de una mesa pueden confluir todo tipo de tics, que en una conversación desnudan a los pedantes pertinaces

Es verdad que la filosofía no es un ingrediente forzoso de las cenas mundanas pero, si aparece, lo mejor es utilizar el humor y la erudición de Sven Ortoli y Michel Eltchaninoff para triturar palabras como metafísica u ontología y devolvérselas al pedante de turno como si fueran un misil tierra- aire.

El ‘Manual de supervivencia en cenas urbanas’ (Salamandra) que han escrito Ortoli y Eltchaninoff es un opúsculo repleto de humor negro e ingenio, propio de unos filósofos “tan franceses”, que se digiere como una deliciosa comida porque es “liviano, ágil y muy sabroso”.

La historia está jalonada de cenas memorables. Desde el banquete de Platon, al de Kierkegaard -en los que se comía y, sobre todo, se bebía en pos del “in vino veritas”- al festín de piedra del “Don Juan”, la Santa Cena, o los “peliculeros” de “La Grande Bouffe” o “Viridiana”.

Los autores creen que no hay grandes comidas sin la construcción de una historia y, a veces, de una revelación. No suele ser el caso de las cenas urbanas pero, advierten, no hay que pensar que se está tan lejos de aquellos festines en los que Aristófanes daba la réplica a las burlas de Alcibíades.

Las cenas contemporáneas, dicen, están repletas de tics de esnobismo, falsas paradojas, amaneramientos diversos y “pasadas” sin paliativos, falsificaciones conceptuales y “teorías definitivas” que ambicionan el mismo efecto letal que las bombas de racimo que arroja un B52.

Ortoli y Eltchaninoff dejan traslucir que ellos mismos son los valerosos y orgullosos supervivientes de muchas de esas cenas y lo hacen con una ironía muy próxima, aunque lo suyo no es un “recetario” de respuestas ingeniosas, sino más bien un divertimento para los amantes de la dialéctica y, por supuesto, de la filosofía.

Se puede entrar al trapo siempre que se quiera pero, recomiendan, “si no se siente con fuerza o ganas para batallar con un pedante profesional, recurra a Epicteto: si alguien nos llama ignorantes y no nos ofendemos, sepamos que empezamos a ser filósofos”.

Y nunca, nunca olvide, subrayan, que como afirmaba Lewis Carroll, “lo que se dice tres veces es verdad, y punto”.

Divididos entre la llegada, el aperitivo, los entrantes, el plato fuerte, la ensalada, los quesos, el postre, y el café y la copa, proponen “lecciones” como “¿Es el principio de Popper afrodisiaco?”, “Yo no tomo postre, soy epicúreo”, o “Cómo comportarse con un periodistósofo”, aunque sobresale por derecho propio el prefacio, firmado por un tal Marcello Yashvili-Mc Gregor, junior.

El sujeto es nada menos que Premio Nobel de Filosofía (1987), profesor invitado del Corleone Collège (Cambridge), profesor asociado de la madraza Michel-Foucault de Qom y titular de la cátedra de Metafísica Cuántica del Instituto de Transdisciplinaridad de México (MIT).

Ni hay Nobel de Filosofía ni existe el Corleone Collège de Cambridge, claro, como tampoco tiene Qom, la ciudad santa del chiísmo (Irán) una madraza Michel-Foucault, por no hablar de que es la física la que es cuántica, no la metafísica.

Y como epílogo proponen una de “ontología” esencial para la vida: “la esencia del queso gruyère es su amenaza”, porque su ser son los agujeros. “A más gruyére, más agujeros; a más agujeros, menos gruyére; luego a más gruyére, menos gruyére”. Y a la cama todo el mundo.

Mujeres en la sopa de letras

Posted on

María Moliner siempre mostró interés por realizar un diccionario del español que superara las carencias que apreciaba en los diccionarios existentes. La circularidad de las definiciones, el lenguaje ya anticuado y en desuso, la falta de información sobre el uso de los términos o sobre las relaciones entre ellos eran características de los diccionarios del momento que consideraba conveniente mejorar
María Moliner siempre mostró interés por realizar un diccionario del español que superara las carencias que apreciaba en los diccionarios existentes. La circularidad de las definiciones, el lenguaje ya anticuado y en desuso, la falta de información sobre el uso de los términos o sobre las relaciones entre ellos eran características de los diccionarios del momento que consideraba conveniente mejorar

Desde que Antonio de Nebrija escribiese en 1492 la primera gramática castellana, la historia de la lingüística española ha estado escrita en masculino plural. La prueba es que la Real Academia Española (RAE) tardó 298 años en permitir que una mujer filóloga, Inés Fernández-Ordóñez, ocupase uno de sus sillones. Claro que la RAE tampoco aceptó en sus filas a María Moliner, cuyo diccionario han utilizado millones de personas en todo el mundo.

Esa falta de visibilidad y reconocimiento por parte de la ortodoxia académica no significa que las mujeres no se hayan ocupado del estudio del lenguaje. Al contrario. Solo en el caso español, entre el siglo XV y el XIX, fueron cientos las mujeres que ocuparon cátedras de lenguas clásicas, monjas de clausura que cultivaron la lengua vulgar castellana, mujeres traductoras, periodistas, filósofas, gramáticas…

Su obra, sin embargo, quedó oculta tras figuras como la de Nebrija en el siglo XV o el mismísimo Noam Chomsky en pleno siglo XX. Es lo que la catedrática de Lingüística de la Universidad de Córdoba María Luisa Calero llama “lingüística subterránea”. Hasta que un equipo internacional de investigadoras, coordinado por las profesoras de la Universidad de Cambrigde Wendy Ayres-Bennett y Helena Sanson y en el que participó la profesora Calero, recuperó e hizo visible las obras de las mujeres lingüistas a lo largo de la historia y en diferentes tradiciones, desde las lenguas clásicas o el castellano hasta las lenguas orientales.

Con ese objetivo, en 2016 tuvo lugar en la Royal Society de Londres un cónclave de investigadoras de más de veinte países en el congreso científico ‘Distant and neglected voices: women in the history of linguistics’, que repasó el papel de las mujeres en el estudio del latín y el castellano desde el siglo XV hasta el XIX. Un encuentro en el que se analizó la contribución de las mujeres en el estudio del lenguaje desde tradiciones tan diferentes como la occidental, la africana, la oriental o la árabe.

El objetivo, según explicaba Calero, es que “esta imponente herencia femenina se incorpore con toda naturalidad a la historiografía lingüística oficial, así como a los programas de enseñanza universitaria. Será un proceso largo, que seguramente encontrará las inevitables resistencias, pero esa incorporación de las voces de las mujeres lingüistas a la historia común será, a partir de la publicación de esta historia de las mujeres lingüistas, un hecho imparable”.

El lenguaje y la historia

Esta nueva línea de investigación no fue el primer intento de la profesora Calero de acercarse a un análisis histórico del estudio del lenguaje. Desde que en 1994 publicara el libro ‘Proyectos de lengua universal. La contribución española’, en el que repasaba los intentos españoles por crear lenguas artificiales, la catedrática de Lingüística de la Universidad de Córdoba siempre utilizó la perspectiva historiográfica para arrojar luz a la evolución del lenguaje.

En este sentido, Calero dictó un curso en la Universidad de Extremadura en el que presentó el ‘neocriollo’, una suerte de lengua mitad castellano mitad portugués que el pintor argentino Xul Solar imaginó como el idioma común para América Latina. Una idea que no prosperó pero que presenta un ejemplo más de los intentos por facilitar el entendimiento universal.

Entre las cientos de lenguas artificiales que se conocen, son muy escasas las que han llegado a prosperar como lenguas de comunicación real y efectiva. La más célebre entre ellas es el esperanto, creado en 1876 por el polaco L. Zamenhof y hoy hablada por más de dos millones de personas en el mundo, según explica Calero. Para la profesora, el esperanto es el ejemplo más claro de una de las muchas aportaciones que han hecho las lenguas artificiales a la comunicación en general.

Xul Solar
Xul Solar

También los inventores de lenguas artificiales han ayudado a crear nuevos códigos lingüísticos para encriptar mensajes, como fue el caso del español Juan Caramuel en el siglo XVII, entre otros. Algunos otros creadores de lenguas vieron la posibilidad de inventar nuevos lenguajes científicos para una más exacta denominación del ámbito de la botánica, la zoología, la química, la medicina, etc., como el Padre Sarmiento en el siglo XVIII.

“Todos estos casos sirven también para demostrar la aportación de las lenguas artificiales al lenguaje en particular, puesto que todos estos autores que se preocuparon por inventar nuevas lenguas de comunicación realizaron a la vez un gran esfuerzo de reflexión sobre las lenguas y el lenguaje, en su intento de hallar rasgos comunes a todas las lenguas para que esas nuevas lenguas inventadas fueran eficaces como medios de comunicación universal”, explica Calero.

Un oxímoron que pone a trabajar al cerebro

Posted on

Muerto viviente, silencio atronador, ortodoxia punk y monstruo hermoso. Son ejemplos de oxímoron, una combinación de dos palabras que al juntarse cambian su significado individual, y que además generan una intensa actividad en el área frontal izquierda del cerebro. Cuanto menos natural es la expresión, más recursos requiere para ser procesada en la parte frontal izquierda del cerebro
Muerto viviente, silencio atronador, ortodoxia punk y monstruo hermoso. Son ejemplos de oxímoron, una combinación de dos palabras que al juntarse cambian su significado individual, y que además generan una intensa actividad en el área frontal izquierda del cerebro. Cuanto menos natural es la expresión, más recursos requiere para ser procesada en la parte frontal izquierda del cerebro

Los políticos en sus discursos, los generales en sus arengas y los amantes en sus poemas han utilizado desde siempre las figuras retóricas para convencer, infundir valor o seducir. El poder de las palabras hábilmente combinadas se conoce desde la Grecia clásica, pero ahora los científicos han logrado medir empíricamente la capacidad de una figura literaria para generar actividad cerebral en las personas.

Investigadores del centro donostiarra Basque Center on Cognition, Brain and Language (BCBL) han demostrado que el oxímoron genera una intensa actividad cerebral en el área frontal izquierda del cerebro, una actividad que no se produce cuando se trata de una expresión neutra o de una incorrecta.

Un oxímoron es una combinación en una misma estructura sintáctica de dos palabras o expresiones de significado opuesto que originan un nuevo sentido. Por ejemplo: noche blanca, muerto viviente o silencio atronador.

“Nuestra investigación demuestra el éxito a nivel retórico de las figuras literarias, y la razón de su efectividad es que atraen la atención de quien las escucha”, explica Nicola Molinaro, autor principal del estudio. “Se reactiva la parte frontal del cerebro y se emplean más recursos en el proceso cerebral de esa expresión”.

El investigador señala que el resultado de los experimentos se relaciona “con la actividad que requiere procesar la abstracción de figuras retóricas como el oxímoron, que tratan de comunicar cosas que no existen”.

Entre todas las figuras retóricas se escogió ésta por su fórmula sencilla de construir, lo que facilita medir con mayor precisión la actividad cerebral que genera. No ocurre así con otras figuras más complejas, como las metáforas.

El descubrimiento se ha publicado en la revista NeuroImage, una de las cabeceras más prestigiosas en este campo. La aceptación del artículo no ha necesitado de imágenes, algo inusitado en esta publicación, ya que toda la fase experimental se ha ejecutado por medio de electroencefalogramas.

El experimento del monstruo y sus adjetivos

Molinaro, junto a sus compañeros Jon Andoni Duñabeitia y Manuel Carreiras –director del BCBL–, han ideado varias listas de frases incorrectas, neutras, oxímoron y pleonasmos (vocablos innecesarios que añaden expresividad), empleando el mismo sustantivo como sujeto: la palabra ‘monstruo’.

Los investigadores han utilizado ‘monstruo geográfico’ como expresión incorrecta, ‘monstruo solitario’ como expresión neutra, ‘monstruo hermoso’ como oxímoron, y ‘monstruo horrible’ como pleonasmo. Después, se les mostraron estas listas a personas de entre 18 y 25 años y se midió su actividad cerebral cuando las procesaban por medio del electroencefalograma.

Los resultados muestran que cuanto menos natural es la expresión más recursos requiere para ser procesada en la parte frontal izquierda del cerebro. La frase neutra ‘monstruo solitario’ es la que menos recursos cerebrales necesita para procesarse. En cuanto a la expresión incorrecta ‘monstruo geográfico’, 400 milisegundos después de percibirla, el cerebro reacciona al detectar que hay un error.

Sin embargo, en el caso de los oxímoron, como ‘monstruo hermoso’, 500 milisegundos después de percibirse la expresión se midió una intensa actividad cerebral en la parte frontal izquierda del cerebro, un área íntimamente relacionada con el lenguaje que los seres humanos tienen muy desarrollada en comparación con otras especies. En el caso del pleonasmo ‘monstruo horrible’ se midió una actividad mayor que en la expresión neutra, pero menor que en el caso del oxímoron.

Esta investigación forma parte de una de las grandes áreas de estudio del BCBL: el lenguaje. En sus instalaciones de San Sebastián, entre otros campos relacionados con la investigación del cerebro, el centro estudia múltiples aspectos de la relación entre la cognición y el lenguaje, como el aprendizaje, el bilingüismo o los problemas asociados.

Una vez comprobado el éxito de este trabajo, el centro ha decidido ampliar el estudio de este campo. Molinaro ya ha comenzado a repetir este experimento con la resonancia magnética, para obtener imágenes de la actividad cerebral cuando se procesan figuras retóricas. El objetivo es estudiar las conexiones entre dos áreas muy implicadas en el procesamiento del significado: el hipocampo, una parte interna del cerebro, y el área frontal izquierda.

El anhelo de una lengua universal

Posted on

El Klingon es una lengua desarrollada por Marc Okrand para los estudios Paramount Pictures.Este idioma pertenece a los Klingons, una raza que durante los comienzos de la serie original de Star Trek no iba a tener mayor protagonismo, sin embargo, la sencillez y los bajos costos en maquillaje les garantizaron su permanencia. James Doohan creó los sonidos básicos y algunas palabras para la primera película basada en la serie original Star Trek: The Motion Picture (1979). Hasta ese momento los klingon solo se habían expresado en inglés. Luego, Okrand creó un amplio léxico y una gramática completa para Star Trek III: En busca de Spock (The Search for Spock) y las siguientes producciones de la franquicia.
El Klingon es una lengua desarrollada por Marc Okrand para los estudios Paramount Pictures.Este idioma pertenece a los Klingons, una raza que durante los comienzos de la serie original de Star Trek no iba a tener mayor protagonismo, sin embargo, la sencillez y los bajos costos en maquillaje les garantizaron su permanencia. James Doohan creó los sonidos básicos y algunas palabras para la primera película basada en la serie original Star Trek: The Motion Picture (1979). Hasta ese momento los klingon solo se habían expresado en inglés. Luego, Okrand creó un amplio léxico y una gramática completa para Star Trek III: En busca de Spock (The Search for Spock) y las siguientes producciones de la franquicia.

Del quenya al klingon pasando por el simlish o el alto valyrio, los idiomas extravagantes forman parte del imaginario de la literatura fantástica y en ocasiones tienen tanto cuerpo gramatical como el volapük o el esperanto, lenguas artificiales creadas para la comunicación en el mundo real.

El hervidero político europeo durante el siglo XIX, alimentado por el Romanticismo, desembocó en nacionalismos extremos que habrían de conducir durante el siglo siguiente a los dos peores conflictos bélicos registrados históricamente en el Viejo Continente.

Como reacción a estos movimientos exageradamente patrióticos, un puñado de idealistas lanzó la idea de crear un lenguaje universal como vehículo de fraternidad para evitar los enfrentamientos internacionales y así surgieron varias iniciativas en el mundo real que tuvieron su reflejo posterior en el género fantástico, donde además sirvieron para dotar de estructura y credibilidad a algunas de sus obras más famosas.

El párroco católico alemán Johann Martin Schleyer fue el primero en diseñar una lengua artificial destinada a facilitar la comprensión entre las distintas culturas en una Europa que había comenzado el siglo XIX con las guerras napoleónicas y se acercaba a su final tras la guerra francoprusiana y los conflictos exteriores como el de los bóers en Suráfrica o el de los bóxers en China.

Schleyer creó el volapük en 1879 basándose en el lema “Menefe bal, püki bal” (“Una única lengua para una única humanidad”) y obtuvo un gran éxito de inmediato: 100.000 personas de 280 asociaciones llegaron a utilizarla y publicar más de 300 libros de texto.

Pero su complejidad gramatical y, sobre todo, los enfrentamientos entre su fundador y uno de sus discípulos, el holandés Auguste Kerckhoffs, terminaron con su popularidad.

Muchos partidarios del idioma universal se pasaron entonces al esperanto, un experimento similar impulsado por el oftalmólogo judeopolaco Ludwik Lejzer Zamenhof, quien también conocía el volapük.

De hecho, hablaba alemán, polaco, ruso, yiddish, latín, griego, hebreo clásico, francés e inglés, además de poseer conocimientos básicos de español, italiano y otras lenguas.

Zamenhof soñaba con el perfecto idioma auxiliar para la comunicación internacional y en 1887 publicó el “Unua Libro” (“Primer Libro”) que describe el esperanto tal cual hoy lo conocemos aunque, pese a sus esfuerzos, ninguna nación lo adoptó jamás como lengua oficial y se estima que hoy día lo manejan menos de 10.000 personas.

Entre los escritores del género fantástico que han desarrollado lenguajes artificiales para sus obras, el gran maestro es J.R.R.Tolkien, el autor de “El Señor de los Anillos” y “El Hobbit”.

Lingüista destacado, desarrolló durante toda su vida algunos de sus idiomas más famosos, como el quenya o lenguaje de los altos elfos de Valinor.

También creó el sindarin o élfico gris, el adunaico de Númenor y otros, hasta un total de quince lenguajes diferentes.

Dentro de la Ciencia Ficción propiamente dicha, uno de los idiomas artificiales más populares es el klingon, desarrollado por otro lingüista, el norteamericano Marc Okrand, quien recibió el encargo de dotar con su propio idioma a la belicosa y homónima raza extraterrestre que aparece en “Star Trek”.

A este idioma se han traducido algunas obras de Shakespeare como “Hamlet” y “Mucho ruido y pocas nueces” porque, como dice el Canciller Gorkon, uno de los personajes klingon: “usted no ha experimentado realmente a Shakespeare hasta que no lo ha leído en el klingon original”.

Okrand también inventó el vulcaniano, idioma de los nativos de Vulcano como el doctor Spock, aunque la frigidez emocional y la rigidez social de esta raza lo han convertido en una lengua poco utilizada.

Menos elaborado es el Simlish o lengua ficticia de los videojuegos de Maxis para sus aventuras con los Sims.

Pese a su sencillez, es un lenguaje difícil ya que está compuesto por balbuceos y sonidos como el de los bebés, con expresiones como “Sool-Sool” (“Hola”) o “Veena Fredishay” (“Vamos a jugar”).

El idioma de moda en el fandom en la actualidad es el alto valyrio, una lengua muerta pero recordada a través de multitud de canciones y libros que aparecen en la saga de “Hielo y Fuego” de G.R.R. Martin, popularizada mundialmente gracias a la serie televisiva de “Juego de Tronos”.

Su frase más popular es “Valar Morghulis” (“Todos los hombres deben morir”), como bien saben los numerosos personajes decapitados, apuñalados, quemados, envenenados y, en general, asesinados por Martin en sus libros.

De todas formas, hay que recordar que la Ciencia Ficción resolvió hace mucho tiempo el problema del lenguaje universal gracias a la telepatía. Pero ésa es otra historia…

El castellano alegra; las canciones en inglés, deprimen

Posted on Actualizado enn

Investigadores de Estados Unidos y Australia han desarrollado un ‘hedonímetro’ que permite analizar el contenido emocional del lenguaje. Tras estudiar 100.000 vocablos de 10 idiomas diferentes, han determinado que, en positividad, el español se sitúa a la cabeza de las lenguas
Investigadores de Estados Unidos y Australia han desarrollado un ‘hedonímetro’ que permite analizar el contenido emocional del lenguaje. Tras estudiar 100.000 vocablos de 10 idiomas diferentes, han determinado que, en positividad, el español se sitúa a la cabeza de las lenguas

El lenguaje es la mayor tecnología social desarrollada por la humanidad, capaz de reflejar en la mente el contenido de las historias que los propios hombres y mujeres elaboran y cuentan. El efecto de los idiomas en la configuración de los pensamientos ha sido durante mucho tiempo un tema controvertido. En 1969, Boucher y Osgood formularon la hipótesis de Pollyanna, que propone la existencia de un sesgo hacia la positividad en la comunicación humana.

Ahora, un equipo de investigadores de Estados Unidos y Australia ha podido confirmar esta hipótesis. En su trabajo han evaluado 100.000 palabras repartidas en 24 corpus de 10 idiomas diferentes en origen y cultura: español de México, francés, alemán, portugués de Brasil, coreano, chino, ruso, indonesio y árabe.

Las fuentes de estos corpus de palabras han sido varias: libros de Google Books, medios de comunicación como The New York Times, la red social Twitter, páginas web, subtítulos de televisión y de cine y letras de canciones musicales. Y en todos ellos se ha comprobado que las palabras alegres priman sobre las tristes.

Los investigadores, encabezados por Peter Sheridan Dodds de la Universidad de Vermont (Estados Unidos), apuntan que los resultados obtenidos prueban “una profunda huella de sociabilidad humana en el lenguaje”, lo que se refleja en que “las palabras del lenguaje humano natural poseen un sesgo hacia la positividad universal, en que el contenido emocional estimado de las palabras es consistente entre las lenguas bajo traducción, y en que este sesgo de positividad es independiente de la frecuencia de uso de las palabras”.

A partir de técnicas de minería de datos, el equipo de científicos localizó las 10.000 palabras más utilizadas en cada uno de los diez idiomas y seleccionó a nativos para que puntuaran en una escala de 1 a 9 puntos cada una de las palabras en función del optimismo que reflejaran, dando menos puntuación a las palabras negativas –como desgracia, muerte o cáncer– y más a las positivas –como cumpleaños, vida o sorpresa–.

En todos los corpus de palabras analizados se encontró un sesgo hacia lo positivo, aunque las mayores tasas se identificaron en las páginas web en español, los Google Books en español y Twitter en español, seguidas de las páginas web en portugués y Twitter en portugués. Las tasas más bajas se registraron, por el contrario, en las letras de las canciones en inglés, los subtítulos de las películas en coreano y los Google Books en chino.

A través de este método, los investigadores han desarrollado un hedonímetro, un sistema capaz de estimar la felicidad contenida en un texto escrito. El próximo objetivo será aplicar este método en otros lenguajes y en diferentes grupos demográficos.

Aprender dos lenguas disipa la amenaza de dislexia

Posted on

Los niños disléxicos que aprenden a la vez un idioma que se pronuncia como se escribe –como el castellano– y una segunda lengua en la que la misma letra puede tener varios sonidos –como el inglés– sufren menos esta alteración cuando leen o escriben en este último idioma
Los niños disléxicos que aprenden a la vez un idioma que se pronuncia como se escribe –como el castellano– y una segunda lengua en la que la misma letra puede tener varios sonidos –como el inglés– sufren menos esta alteración cuando leen o escriben en este último idioma

¿Dislexia o dsxiliea? Cualquier persona sin trastornos de lectura podría leer sin problemas la primera palabra. Pero si quien lo intenta sufre esa alteración, verá algo similar a la segunda.

La dislexia es un déficit de la capacidad lectora que dificulta el aprendizaje y que afecta a entre el 3 y 10% de la población. Su transmisión es en parte genética, y su diagnóstico se realiza en menores de entre 8 y 9 años, aunque los síntomas se manifiestan antes. Hasta el momento, la única forma de combatir este trastorno era a través de tratamientos precoces adaptados a la edad y síntomas del paciente.

Ahora, una investigación desarrollada por la Universidad de Bangor (Gales) y el Basque Center on Cognition, Brain and Language (BCBL, por sus siglas en inglés) de San Sebastián ha demostrado que algunas combinaciones de bilingüismo, transmitidas desde edades muy tempranas, contribuyen a reducir sus síntomas.

El objeto principal era comprobar si un bilingüismo adquirido por niños que aprenden a leer en inglés y galés al mismo tiempo podía beneficiar a quienes sufrían dislexia evaluada en la lengua inglesa. “Y la respuesta es sí”, afirma tajante Marie Lallier, científica del BCBL y una de las autoras del estudio, publicado en Scientific Studies of Reading.

El trabajo se realizó con adultos que en su infancia crecieron con estos idiomas como lenguas maternas por una razón fundamental: el galés es de los llamados transparentes, es decir, sus letras siempre tienen el mismo sonido, como el castellano y el euskera. Sin embargo, el inglés, al igual que el francés, es considerado opaco, porque una misma letra puede tener varios sonidos al ser leída.

Las nuevas conclusiones revelan, por primera vez, una diferencia clara e inequívoca entre los síntomas que muestran las personas disléxicas bilingües y monolingües. Y su importancia radica en que se ha demostrado una transferencia entre idiomas en el caso de las personas que hablan dos lenguas.

“Un bilingüe se puede apoyar en los recursos que usa en un idioma para ayudar a procesar el otro, y eso es importante porque puede ser de gran ayuda para adultos con dificultades en el lenguaje”, subraya Lallier.

Resultado robusto

Los expertos partieron de una hipótesis: si una niña o un niño aprende un idioma transparente junto con otro opaco, el primero contribuirá a “la descodificación o la adquisición de la lectura del más complejo (es decir, el opaco)”. Y los resultados fueron concluyentes.

“El déficit de lectura y escritura en inglés que sufrían las personas disléxicas que habían aprendido a hablar en galés e inglés era menos fuerte que el de quienes habían adquirido solo un idioma opaco (el inglés). Era una diferencia significativa y bastante clara”, según explica Lallier.

Los investigadores utilizaron a 60 personas de entre 18 y 40 años distribuidas en cuatro grupos: en el primero juntaron a 15 adultos con dislexia monolingües ingleses y en el segundo, a otras 15 disléxicos bilingües en galés y en inglés. Los otros dos grupos, también de 15 miembros cada uno, estaban compuestos por los llamados controles, personas sin dislexia monolingües y bilingües utilizados para comparar los resultados.

Todos los participantes recibieron los mismos estímulos en inglés para comprobar si el hecho de haber aprendido a leer en los dos idiomas había permitido a los disléxicos bilingües tener problemas menos severos –en procesos de lectura y fonológicos– que los que no conocían el galés. “Todos tenían dislexia, pero demostramos que los bilingües sufrían problemas menos importantes en inglés que los de habla exclusivamente inglesa”.

Un segundo idioma no cura la dislexia
¿Y cómo influye este bilingüismo en los escolares, que son quienes potencialmente sufren con más dureza los efectos de la dislexia? Lallier precisa que este estudio solo se ha testado sobre adultos, pero se atreve a decir que “seguramente, estas personas bilingües angloparlantes tuvieron menos dificultades con la lectoescritura en inglés o superaron algunos trastornos con menor dificultad que los niños que no aprendieron galés”.

“No se puede decir que un segundo idioma cure la dislexia, porque los adultos del estudio siguen teniéndola; solo han disminuido algunos de los síntomas. En general, es bueno para combatirla, pero hay diferentes tipos de bilingüismo: unos aprenden un segundo idioma desde que nacen, otros a los seis años… por eso no se puede decir todavía que sea bueno para todos los casos”, puntualiza.

Los autores defienden que las personas bilingües afectadas por este trastorno deberían recibir siempre el apoyo y la reeducación de logopedas y personal especializado.