Reflexiones personales sobre la I.A.


Los seres humanos han cometido durante milenios un error grave:
     Darle al concepto de lo divino (dios, dioses), rasgos antropomórficos.
Y esto, ha sido el origen de terribles conflictos, bélicos y no bélicos, pero igual de desastrosos.
Aún hoy en día, después de más de seis mil años de religiones conocidas (desde el hinduismo), todas las que siguieron han fomentado el error de: 
   
Representar la imagen de una supuesta divinidad, sea cual sea, con características humanas, y no solo referentes al cuerpo, sino también a su comportamiento, carácter e idiosincrasia en general. Y aunque, quizás de una forma un poco más intelectualizada, seguimos haciendo lo mismo (los creyentes, claro).
Ahora en pleno siglo XXI, estamos empezando a cometer el mismo error con la llamada Inteligencia Artificial. Humildemente espero  que nuestros sucesores no tarden seis mil años en empezar a corregirlo.

Y esta reflexión se refiere a la IA (en genérico) y no a algunas de sus aplicaciones industrializadas como puedan bien ser, los robots humanoides, aunque lógicamente lleven IA incorporada en sus automatismos.
Gran parte de culpa de esto, la tienen las obras de ciencia ficción, del mismo modo que en lo referido a lo divino y las religiones, la culpa es atribuible a los llamados "Libros Sagrados" tan repletos de ficciones como los anteriores citados (de cienc. ficc.)


Diestro o zurdo

¿Por qué tenemos una mano menos hábil que otra?

Aproximadamente un 10% de la población es zurda. Anastassiya Bezhekeneva/Shutterstock
Álvaro Carmona, Universidad Loyola Andalucía

Este artículo forma parte de la sección The Conversation Júnior, en la que especialistas de las principales universidades y centros de investigación contestan a las dudas de jóvenes curiosos de entre 12 y 16 años. 


Pregunta formulada por Alejandro, de 15 años, del IES Sierra de las Villas, Villacarrillo (Jaén)


Seguro que te has fijado en que al escribir, jugar al fútbol o cepillarte los dientes siempre utilizas una mano con más destreza que la otra. No es casualidad: se trata de una característica llamada lateralidad manual, que significa que nuestro cerebro prefiere usar una mano concreta para tareas de precisión. Pero, ¿por qué ocurre esto?

Una cuestión de ahorro energético

Cerca del 90 % de las personas son diestras, alrededor del 10 %, zurdas y muy pocas, menos del 1 %, ambidiestras (pueden usar ambas manos con igual habilidad). Esta característica tiene mucho que ver con cómo está organizado nuestro cerebro.

El cerebro humano está dividido en dos partes o hemisferios que se encargan de controlar movimientos diferentes. Mientras que el hemisferio izquierdo maneja principalmente la parte derecha del cuerpo, el derecho controla la parte izquierda. Esta organización cruzada explica por qué, si alguien sufre una lesión en el lado izquierdo del cerebro, su mano derecha podría perder movilidad o precisión.

La lateralización es una maravillosa estrategia para ahorrar energía. Si ambas manos hicieran todo con la misma eficacia, nuestro cerebro necesitaría más esfuerzo y energía para coordinarse. La naturaleza, que es muy práctica, optó por la especialización: una mano se convierte en la “principal” y se dedica a movimientos finos, mientras que la otra la apoya realizando tareas menos delicadas. De esta forma, el cerebro ahorra energía y mejora la coordinación.

Aunque no existe un gen de la mano izquierda o derecha, sí se sabe que la genética juega un papel clave. Un estudio realizado con más de 300 000 personas en Reino Unido descubrió decenas de genes relacionados con la lateralidad manual. Estos influyen en cómo crecen y se conectan las neuronas durante el desarrollo del cerebro, favoreciendo una preferencia hacia una mano u otra desde etapas muy tempranas.

Zurdos o diestros incluso antes de nacer

Gracias a las ecografías, hoy sabemos que muchos bebés ya prefieren chuparse un pulgar en particular desde antes de nacer, algo que ocurre alrededor de la 15ª semana del embarazo. Esto indica que la preferencia manual se empieza a formar muy pronto, probablemente influida por pequeñas diferencias en el desarrollo del cerebro dentro del útero.

Además de los genes y la biología, nuestro entorno y la cultura pueden influir en esa primacía. Por ejemplo, hasta hace no mucho tiempo, ser zurdo no estaba bien visto en la sociedad, por lo que muchos niños zurdos eran obligados a usar la mano derecha. Hoy sabemos que esto no es para nada recomendable, ya que fuerza al cerebro a usar circuitos menos eficaces, causando incomodidad, torpeza e incluso trauma.

Otra curiosidad sobre la lateralidad manual es su relación con el lenguaje. En la mayoría de los diestros, el hemisferio izquierdo controla la función lingüística. En cambio, en los zurdos esta distribución puede ser diferente: algunos utilizan el hemisferio derecho y otros tienen esta función repartida entre ambos hemisferios. Esto muestra lo increíblemente compleja que es la organización cerebral.

Entonces, ¿es mejor ser diestro o zurdo?

Aunque hay algunos estudios que relacionan la zurdera con ciertos trastornos del desarrollo del lenguaje, las personas “no-diestras” tienen una vida perfectamente saludable. De hecho, pueden disfrutar de ciertas ventajas, especialmente en deportes como el tenis, el boxeo o la esgrima, porque sus movimientos son menos predecibles para la mayoría diestra.

Además, creencias populares afirman que los zurdos pueden tener mayor creatividad y capacidad de adaptación por estar acostumbrados desde pequeños a un mundo diseñado mayoritariamente para diestros. En realidad, un estudio reciente concluyó que no existen diferencias significativas en creatividad divergente entre zurdos y diestros; de hecho, en algunos tests estandarizados los diestros obtienen puntuaciones ligeramente superiores. Este hallazgo desmonta el mito de la diferencia creativa entre zurdos y diestros y sugiere que la organización cerebral y la práctica individual, más que la lateralidad, determinan la creatividad.

Y aunque siempre tendremos una mano preferida, la buena noticia es que la menos hábil puede mejorar con la práctica. Realizar pequeñas actividades diarias, como cepillarte los dientes o escribir notas breves con tu mano más torpe, puede fortalecer sus conexiones neuronales y aumentar su precisión. Nuestro cerebro es muy adaptable y puede perfeccionar sus habilidades con el entrenamiento.

También es importante tener en cuenta la importancia del diseño inclusivo. Tijeras, pupitres y otros utensilios suelen estar pensados para diestros, dificultando las tareas cotidianas de muchas personas zurdas. Apostar por diseños cómodos y accesibles para cualquier mano es un paso más hacia un mundo más justo y adaptado para todos.

Así que la próxima vez que te sientas torpe al usar tu mano menos hábil, recuerda que detrás de esa simple preferencia hay un fascinante proceso que combina genética, cerebro y ambiente. Comprenderlo no solo es interesante, sino que también es un ejemplo diario que nos ayuda a apreciar mejor cómo funciona nuestro cuerpo.

Álvaro Carmona, Coordinador académico & docente, Universidad Loyola Andalucía

Este artículo fue publicado originalmente en The Conversation. Lea el original.


Impotencia

Le he tomado prestada la fotografía al amigo Fackel

Impotencia. Tristeza, repugnancia...
Es un rosario de emociones que explotan con cada noticia, con cada lectura en los medios, programa de televisión, declaración de representantes políticos...
Ruido, mucho ruido y pocas nueces. 
Confieso mi odio que a estas alturas ya no me apetece disimular, hacia una sociedad, la hebrea, deshumanizada, depredadora y asesina. 
Sé perfectamente que escribir sobre esto, no sirve para nada. Lo siento mucho por aquellos que ilusoriamente piensan que sí y que quizás deberían revisar introspectivamente si no están cayendo en un terreno de soberbia, pensado que sus líneas en un blog, tengan algún modo de influencia. Peor aún, si con sus escritos piensan que pueden aplicarse un bálsamo que alivie su conciencia. No sirve para nada. Y es por eso que la primera palabra de este escrito es «impotencia». La que siento ante la barbarie, la injusticia y del otro lado, la pasividad de los supuestos organismos de que nos dotamos después de la llamada Segunda Gran Guerra y cuya razón de ser no es otra que conseguir que estas cosas no puedan ocurrir. 

Quiero imaginar que este niño, superará su inanición y recuperará la salud de su cuerpo; imaginar que crecerá alejado del horror que le envuelve y que en su madurez es un ciudadano de pleno derecho y entonces me pregunto:
¿Podrá alguien hablarle del holocausto judío o pensará que Hitler tenía razón?

Pero ¿quién soy yo para criticar lo ilusorio? 
Yo que en mi juventud, pensé que llegaba el amanecer un mundo nuevo, una libertad y un mundo en progreso y desarrollo de los derechos humanos.
Ahora, la realidad me devuelve otro amanecer cada día peor. Mi edad y mis pocas fuerzas, solo me permiten bañarme en eso…en la impotencia. La impotencia de no poder hacer prácticamente nada.

Imagen generada con IA





Superpoblación

Imagen generada con IA


La Superpoblación Mundial:
Un Desafío Crece con la Humanidad.

La población mundial ha experimentado un crecimiento exponencial en los últimos siglos, pasando de mil millones de personas a principios del siglo XIX a más de ocho mil millones en la actualidad. Si bien este aumento ha sido un testimonio del progreso humano en áreas como la medicina y la producción de alimentos, también ha dado lugar a una serie de desafíos interconectados que amenazan la sostenibilidad de nuestro planeta y la calidad de vida de sus habitantes. 
Uno de los problemas más evidentes es la presión sobre los recursos naturales.
Una población en constante crecimiento demanda más alimentos, agua dulce, energía y materias primas. Esto conduce a la sobreexplotación de acuíferos, la deforestación a gran escala para la agricultura y la urbanización, y el agotamiento de recursos no renovables. La escasez de estos elementos vitales puede desencadenar conflictos, migraciones forzadas y un aumento de la pobreza.
La degradación ambiental es otra consecuencia directa.
Cuantas más personas, mayor es la huella ecológica. Esto se traduce en un aumento de la contaminación del aire, el agua y el suelo, la acumulación de residuos, la pérdida de biodiversidad y la intensificación del cambio climático. La alteración de los ecosistemas compromete la capacidad de la Tierra para proveer servicios esenciales como la purificación del aire y el agua, la polinización y la regulación del clima. En el ámbito social y económico, la superpoblación puede exacerbar las desigualdades y la pobreza.
Aunque la producción global de alimentos es suficiente para alimentar a todos, la distribución desigual y la falta de acceso llevan a que millones de personas padezcan hambre y malnutrición. Además, la presión sobre los servicios básicos como la educación, la sanidad y la vivienda se intensifica, especialmente en las áreas urbanas, donde se concentra una gran parte del crecimiento demográfico. Esto puede generar hacinamiento, aumento de enfermedades y un incremento de la delincuencia.
Abordar la superpoblación no es una tarea sencilla y requiere un enfoque multifacético. Implica que deberíamos promover la educación, quizás especialmente la de las mujeres, que se ha demostrado que reduce las tasas de natalidad; fomentar la planificación familiar y el acceso a métodos anticonceptivos; impulsar la innovación tecnológica para el uso eficiente de los recursos y la producción sostenible; y desarrollar políticas que promuevan la equidad y la justicia social.
En conclusión, el tema de la superpoblación mundial no es simplemente una cuestión de números, sino que se trata de un complejo entramado de desafíos ambientales, sociales y económicos. Deberíamos reconocer su impacto e importancia y trabajar en la búsqueda de soluciones sostenibles. Es algo fundamental para asegurar un futuro, ya no solo próspero y equitativo para las generaciones presentes y futuras, sino un futuro alejado de distopías.

La naturaleza que somos

Dos frases para la ensalada del día. A la cual mejor

Por cierto: Una antropóloga en la luna, es un blog que sigo y recomiendo y de cuyas actualizaciones, mi lista de blogs anuncia puntualmente. En mi sidebar (al pie). Ahora, nos presenta su nuevo libro. Muy recomendable:




Papa Francisco: Fe y Redes

El papa Francisco como fenómeno mediático: entre la fe y las redes sociales

Eudaimonic Traveler/Shutterstock
Francisco J. Pérez Latre, Universidad de Navarra

La Iglesia católica busca medios y lenguajes que ayuden a difundir la fe en el contexto cultural del siglo XXI, marcado por la prevalencia de la imagen y la comunicación digital. ¿Pero puede un papa hoy ser relevante?

El valor y la visibilidad mediática del papa recibieron un impulso considerable durante el pontificado de Juan Pablo II. A Francisco los medios le han acompañado desde el primer día hasta el último. En el cónclave que le eligió en 2013 hubo miles de periodistas acreditados, procedentes de 65 países; a los 600 periodistas que cubren la Santa Sede se habían unido 4 432 enviados especiales.

Los cardenales eligieron papa a Francisco en un clima de máxima expectación mediática global, que continuó en los días siguientes, mientras audiencias y medios iban conociendo un pontífice inesperado y sorprendente, el primero no europeo en 1 200 años.


Expresiones originales

Francisco demostró especial capacidad para transmitir el mensaje a través del lenguaje, los gestos y los símbolos. Su magisterio estaba repleto de expresiones gráficas y originales como “hagan lío”, “licuar la fe”, “oler a oveja”, “Iglesia en salida”, “transitar por la paciencia”, “obispos de aeropuerto”, “el ídolo del dinero”, “cultura del descarte”, “globalización de la indiferencia”, “guerra mundial a pedazos”, “santidad de la puerta de al lado”, “cultura del encuentro”, “balconear la vida”, “jóvenes de sofá”…. Estas expresiones han ido configurando un discurso singular y, en ocasiones, han calado en la opinión pública, dentro y fuera de la Iglesia.

Además de la reunión inicial con los periodistas, varios hitos destacaron en la relación con los medios de Francisco ya desde el comienzo. El viaje a la isla de Lampedusa en 2013 fue uno de ellos. Tras conocer la muerte de otro grupo de inmigrantes que querían llegar desde África, el papa se trasladó allí en un viaje que él mismo consideraba como uno de los momentos más relevantes de su pontificado.

En Lampedusa, Francisco alzó su voz:

“Sentí que tenía que venir hoy aquí a rezar, a realizar un gesto de cercanía, pero también para que lo que ha sucedido no se repita. Estamos desorientados, no estamos ya atentos al mundo en que vivimos, no nos preocupamos, no protegemos lo que Dios ha creado para todos y no somos capaces siquiera de cuidarnos los unos a los otros”.

El discurso tuvo gran eco en la opinión pública mundial.

Ruedas de prensa con preguntas

Otros hitos llegaron con el viaje a Brasil para la Jornada Mundial de la Juventud (2013): las ruedas de prensa en los vuelos. En esa primera ocasión, se le hicieron al papa hasta 23 preguntas que fueron publicadas al completo por algunos medios. El estilo franco y abierto fue característico en las intervenciones: “Hacer un espacio blindado entre el obispo y el pueblo es una locura”, dijo a los periodistas.

Las ruedas de prensa en los vuelos han sido un cauce habitual de comunicación espontánea y a veces terminaban con conversaciones con los periodistas uno a uno.

La revista Time nombró a Francisco “Persona del año”, reconociendo al que llamó “papa del pueblo”, “que adoptó el nombre de un santo humilde”. Francisco, decía Time, “está llamado a transformar un lugar que mide los cambios por siglos”. El nombramiento de la publicación, que ya recibieron Juan XXIII y Juan Pablo II, fue otro paso más del notable protagonismo de Francisco en la opinión pública mundial.

La portada navideña de The New Yorker ayudó a subrayarlo, junto con otras apariciones en portada en medios tan poco habituales para la religión como Vanity Fair o Rolling Stone.

El pontífice ha sido un actor de primer orden en los medios globales, que han acelerado el aspecto más social de su figura y su liderazgo, dentro y fuera de la Iglesia. Iniciadas por Benedicto XVI en diciembre de 2012, las cuentas del papa en las redes sociales (ahora hay que sumar la que inauguró Francisco en Instagram en 2016) se han convertido en voces mundiales de referencia en entornos digitales.

Las nueve cuentas en Twitter (en español, inglés, italiano, portugués, francés, latín, alemán, polaco y árabe) superan los 40 millones de seguidores. El potencial de difusión de los mensajes es llamativo: hay tuits de Francisco con más de 13 000 retuits.

También llama la atención el número de mensajes que se convierten en “favoritos”, otra medida del impacto y compromiso de las audiencias que suele utilizarse para medir la eficacia de la comunicación en redes.

Su visión de la comunicación

¿Qué pensaba Francisco sobre la comunicación? En 2016 y 2017 el papa tuvo doce encuentros con el sociólogo francés Dominique Wolton en los que mantuvo amplias conversaciones sobre los grandes temas de nuestro tiempo, entre ellos la comunicación. Francisco apuntó a un modelo que subraya la proximidad: la cercanía con las personas es la consideración crucial, porque desde su punto de vista la comunicación es, antes que nada, comunicación personal. “La comunicación es algo que no se compra. No se vende. Se da”, dijo.

La proximidad es precisamente la razón que en su conversación con Wolton aduce para utilizar Twitter: “Tengo que utilizar todos los medios para acercarme a la gente. Es un medio de acercarse (…). Yo escribo tuits como para abrir puertas, estoy seguro de que estos tuits tocan los corazones”. También puso en valor la humildad como una de sus características prioritarias: “La única llave que abre la puerta de la comunicación es la humildad”.

En cuanto a los profesionales del periodismo, Francisco compartió su visión ya en 2016 en unas palabras en Italia al Consejo Nacional del Orden de los Periodistas. Allí señaló que les corresponde escribir un “primer borrador de la historia”, lo que da una idea de la trascendencia de su misión.

En su opinión, la vocación del periodismo era “hacer crecer la dimensión social de una verdadera ciudadanía”. “No puede convertirse en un arma de destrucción: deseo que el periodismo sea, cada vez más y por doquier, un instrumento de construcción, un factor de bien común, un acelerador de procesos de reconciliación”, apuntó. La filosofía de “tender puentes” fue clave en su comprensión de la comunicación.

La estrategia de la falta de estrategia

Cualquier balance del pontificado de Francisco es aún prematuro. Pero ya se pueden apuntar algunas conclusiones. De alguna manera, su estrategia consistía en la falta de estrategia: la frescura, la espontaneidad y la proximidad.

Difícil de encasillar en las categorías mediáticas convencionales, destacó también una sonrisa que ha dado la vuelta al mundo. Esas cualidades han permitido a la Iglesia conectar con frescura en contextos menos habituales, con públicos que se sentían menos cómodos con la religión. El mensaje de Francisco ha sido una fuente de oportunidades para la comunicación de la fe en el siglo XXI y ha logrado que la Iglesia llegue a nuevos foros con su misión.The Conversation

Francisco J. Pérez Latre, Profesor. Director Académico de Posgrados de la Facultad de Comunicación, Universidad de Navarra

Este artículo fue publicado originalmente en The Conversation


Avestruz 2.0


Leo en un jugoso comentario publicado en otro blog y que no me pasa desapercibido. Pienso sobre lo que dice y trato de valorar hasta qué punto pueda ser sincero:

No escucho radio, ni veo televisión, no leo periódicos, ni escucho noticias, no tengo redes sociales. No admito, en mi blog, comentarios de tinte político, religioso o deportivo. Mi paz interior, antes que nada.

Me pregunto si esto describe lo que es una AVESTRUZ 2.0, aunque también me interrogo sobre si los news consumers, desarrollan un mínimo criterio, fruto de la reflexión y una sana actitud objetiva.





Sabiduria ancestral


Si te hablo de «los pueblos originarios» supongo que te será fácil adivinar que el término se refiere a las tribus que habitaban América antes de que llegaran los «rostros pálidos». Estos, básicamente europeos, que como avanzados de la floreciente civilización y con una historia rica a sus espaldas, impregnados de la influencia y  sacrosanta verdad del cristianismo, se  dedicaron, como bien sabemos, a masacrarlos, como diríamos en catalán "a tort i a dret"

Me ha gustado y me ha llamado la atención saber que "rostro pálido" no era la forma exclusiva de llamar a los blancos. Como bien nos comparte el blog de Noemi Villaverde  Una antropóloga en la Luna, las diferentes tribus -tanto en Norteamérica , Centroamérica o Sudamérica-  tenían otras denominaciones paralelas que os invito a descubrir visitando el blog citado. Todas ellas muy interesantes. 

La que más me llama la atención es la de la tribu de los indios Ayoreo (Sudamérica). Estos indios los llamaban "Cohñone".  El significado de tal palabra es Los insensatos.
Y sin conocer a Trump y su pandilla de ilustres. Sin duda, la demostración de la sabiduría de los pueblos ancestrales. 




La guerra de Snoopy

Esa historia de la maldad de los juguetes bélicos me cuesta mucho de entender y aceptar.
Pienso, seriamente, que de acuerdo con el modo que jugué de niño,
ahora debería ser el lugarteniente de Netanyahu o el comandante en jefe de Putin.

Es más, sospecho que esta idea que cacarean los psicólogos, no responde a otra cosa
que a las características de la vida moderna, donde los padres y madres, tratan de
sacudirse de encima las obligaciones que comporta educar a la prole. Prefieren tenerlos
sobreprotegidos e hipnotizados con las pantallas.

El niño (o niña) que en la infancia juega a la guerra, no tiene por qué
convertirse en violento cuando crece.
Son los juegos de cualquier índole, los que socializan a los pequeños y es
la falta de esa socialización la que origina personas conflictivas. 
Creo que es totalmente lo contrario de lo que se está afirmando.

Los niños juegan de forma semejante a como lo hacen las mascotas.
Se pelean y aparentan morderse, pero no lo hacen o lo hacen sin provocar heridas.
Y es trabajo de los padres, evitar las conductas extremas que puedan darse y provocar lesiones. Explicarles hasta qué punto del juego pueden hacer y a donde no deben llegar.
Eso los educa. Pero es más cómodo reprimir el juego.
















Existes, así que piensa, jolines!

Debemos aprender que aceptar pasivamente un sistema injusto es cooperar con ese sistema y, por lo tanto, convertirse en partícipe de su maldad. Hem d'aprendre que acceptar passivament un sistema injust és cooperar amb aquest sistema i, per tant, esdevenir un participant de la seva maldat.

Martin Luther King

Nosotros y nuestro nietos


¿Nuestras experiencias afectarán a los nietos?
—Desde el punto de vista de la genética, no—
Geber86/Shutterstock
Óscar González-Recio, Instituto Nacional de Investigación y Tecnología Agraria y Alimentaria (INIA - CSIC)

Somos quienes somos, en parte, gracias a los ácidos nucleicos de nuestro genoma: adenina, timina, guanina, citosina y uracilo. Sin embargo, nuestro material genético no se compone solo de ellos, sino que va más allá. Llamamos “epigenética” a aquellas marcas que producen cambios en la expresión de los genes sin modificar la secuencia de nucleótidos. Estas marcas tienen una gran importancia en cómo se expresan los genes y, por tanto, sobre nuestra apariencia y propensión a sufrir enfermedades.

Estas “marcas epigenéticas” están influenciadas por el ambiente, pero también por la secuencia de ADN. Eso implica que pueden estar condicionadas por nuestra forma de vida, desde la alimentación hasta el estrés. Existe una corriente que promulga que la epigenética se transmite de padres a hijos, incluso que el medio ambiente que sufrieron las abuelas pueden afectar a las nietas. Otros llegan a sugerir que podemos heredar los traumas de nuestros progenitores.

Estas sorprendentes afirmaciones han despertado el interés de numerosos genetistas. Podrían sugerir la necesidad de revisar las leyes de la herencia tal y como las conocemos. Por ello, la ciencia ha tratado de responder durante las últimas décadas a la pregunta de si existe una “herencia epigenética”.

{tocify} $title={Sumario}

El error del lamarckismo

Por un lado, la idea de una “herencia epigenética” evoca las teorías del naturalista francés Jean-Baptiste Lamarck (1744-1829). Según el lamarckismo, los individuos reciben influencia de las condiciones y el ambiente en el que viven y moldean las características de las especies. Estas son después transmitidas a la descendencia.

Esto puede entenderse con mayor facilidad mediante el ejemplo más famoso de esta teoría: el de que las jirafas, al estirarse para conseguir alimento de los árboles más altos, alargaban sus cuellos. Como podían acceder a más comida porque alcanzaban más alto, tenían más probabilidad de sobrevivir. Esta modificación se transmitía a los descendientes. Otro caso sería el del herrero que conseguía brazos fuertes por su trabajo: según el lamarckismo sus hijos también heredarían esta fortaleza muscular.

Pese a resultar tan intuitiva, la teoría de Lamarck fue refutada por la teoría de la evolución del británico Charles Darwin (1809-1882). Según ella, son mecanismos como la selección natural los que provocan que algunos individuos (las jirafas con cuellos más largos) sobrevivan más y dejen más descendientes, lo que a su vez provoca que esos genes se transmitan más.

¿Tenemos evidencias de la herencia epigenética?

Para responder a esta pregunta debemos primero diferenciar entre dos conceptos: la “herencia epigenética transgeneracional” y los “efectos epigenéticos intergeneracionales”.

Los efectos epigenéticos intergeneracionales se darían cuando un mismo evento afecta a varias generaciones de forma simultanea. Las condiciones para esto se dan en una embarazada que contiene al feto y a las células germinales (óvulos) de ese feto, que dará lugar a las nietas y nietos. Por tanto, en ese momento coinciden tres generaciones. Un efecto ambiental que cambie la epigenética afectaría a las tres, no por transmisión o herencia, sino por un efecto simultáneo directo que afectaría a la madre, la hija y los nietos.

La hambruna holandesa de los años 1944-1945 es un conocido caso de epigenética intergeneracional. Los fetos de las mujeres embarazadas durante ese periodo variaron su epigenética debido a las condiciones de hambruna de sus madres, lo que les volvió más susceptibles a enfermedades metabólicas durante su vida adulta.

Por otra parte, la herencia epigenética transgeneracional sería la transmisión de las marcas epigenéticas desde los progenitores a los descendientes a través de la línea germinal (óvulos y espermatozoides) de forma sistemática a través de varias generaciones, como sucede con los genes a lo largo de la evolución.

Esto último es algo para lo que no tenemos pruebas. Al menos, en mamíferos. En otros organismos, como insectos y plantas, sí parece haber una herencia epigenética transgeneracional más allá de tres generaciones.

Razones por las que la herencia epigenética no ha sido probada

Para poder asegurar que existe la herencia epigenética transgeneracional es necesario cumplir cinco requisitos:

  1. Que la primera generación no expuesta a los mismos factores ambientales que sufrieron las abuelas haya heredado el rasgo fenotípico.

  2. Que la primera generación no expuesta a los mismos factores ambientales que sufrieron las abuelas haya heredado las marcas epigenéticas.

  3. Que las marcas epigenéticas hayan sido adquiridas por línea germinal, descartando que hayan sido adquiridas en los mismos sitios pero a posteriori.

  4. Analizar las marcas en la células germinales para verificar que portan las marcas epigenéticas.

  5. Verificar que los cambios en la expresión genética se mantienen en las diferentes generaciones.

Sorprendentemente, incluso los estudios que dicen haber encontrado herencia epigenética transgeneracional, no cumplen la mayoría de estos criterios. Muchas veces se ignora el doble borrado que ocurre durante la maduración de las células germinales y durante la fecundación, cuando se produce un “borrado epigenético” de casi la totalidad de marcas epigenéticas. Aunque alguna escape, son casos aislados y aleatorios en los que no se podría hablar de una herencia programada.

A pesar de todo esto, la existencia de la herencia epigenética sigue debatiéndose. Es tremendamente complicado demostrar su existencia, ya que existen multitud de variables de confusión que hasta la fecha han impedido su verificación. Sin embargo, hay más evidencias de su inexistencia, como el borrado epigenético y la ausencia de indicios más allá de tres generaciones.

El efecto intergeneracional es algo diferente, como se pudo ver con las embarazadas holandesas expuestas al hambre durante la Segunda Guerra Mundial. Las madres gestantes o en proceso de serlo deben cuidar de los factores ambientales que les rodean, puesto que afectarán a sus hijas, hijos y, probablemente, a sus nietas y nietos.The Conversation

Óscar González-Recio, Genetista. Investigador Científico del INIA-CSIC, Instituto Nacional de Investigación y Tecnología Agraria y Alimentaria (INIA - CSIC)

Artículo publicado en The Conversation


Abandono infantil

De la Antigua Roma a las cunas inteligentes: así ha sido el abandono infantil a lo largo de la historia

SeventyFour/Shutterstock
Tewise Yurena Ortega González, Universidad de Las Palmas de Gran Canaria y José Luis Zamora Manzano, Universidad de Las Palmas de Gran Canaria

En la Antigua Roma, el paterfamilias (cabeza de familia) ejercía, al igual que en la actualidad, la patria potestad sobre los hijos, lo cual le otorgaba una serie de derechos. Así, tenía el derecho a decidir sobre si vivían o morían, el derecho a entregarlos en matrimonio, el derecho a venderlos y el derecho a abandonarlos.

Son diversos los motivos que llevaban a un padre a abandonar a sus hijos, aunque la situación de pobreza, la presencia de enfermedades, malformaciones o discapacidades en los neonatos o el género femenino eran los más relevantes.

No conocemos lugares específicos donde el paterfamilias pudiera depositar a los hijos por lo que, en general, se hacía en espacios públicos o en la columna lactaria –el lugar donde algunos progenitores pobres llevaban a sus hijos para alimentarlos con leche–. Dicho abandono se producía al alba para garantizar su supervivencia y que pudieran ser recogidos por otras personas que podían criarlos como hijos o esclavos –aunque lo más habitual era la explotación física y sexual–.

A partir de las investigaciones realizadas sobre el asunto y del rastreo de fuentes jurídicas que se ocupan de la cuestión, podemos afirmar que, inicialmente, el abandono no supuso la pérdida de la patria potestad. De hecho, en cualquier momento el padre podía reivindicar al hijo abandonado a la persona o familia que lo hubiera recogido.

La dificultad de identificar a los bebés

Esta era una cuestión controvertida, ya que resultaba bastante complejo probar la filiación a menos que se le hubiera realizado algún tipo de marca al bebé, se hubieran dejado dentro de la caja objetos de escaso valor o crepundia para favorecer la reivindicación posterior o que el depósito lo hubieran realizado esclavos y se hubieran mantenido escondidos para conocer y poder identificar, en su caso, a quienes lo hubieran recogido.

En la época previa a Justiniano, el paterfamilias podía recuperar a un hijo abandonado si pagaba una indemnización por los gastos de crianza al nutritor o persona que lo hubiera recogido. Sin embargo, durante su gobierno, esta posibilidad se eliminó, y el abandono supuso la pérdida de la patria potestad, reconociendo al nutritor la posibilidad de decidir si incorporaba al niño a su familia como hijo, o lo mantenía como esclavo.

Al margen de limitar los derechos del padre que expone sobre los hijos abandonados, y al objeto de evitar la continuidad de la práctica, el emperador Constantino (272-337) impuso al fisco y al poder público romano la obligación de garantizar el sustento de las familias pobres y castigó con sanciones civiles como la privación de la patria potestad o penales como reconocer como parricidio a quienes atentaran contra sus propios hijos hijos. Justiniano (482-565), por su parte, extendió esta protección al exigir igualdad de trato para los niños abandonados, garantizando su derecho a ser alimentados, educados y reconocidos como personas libres.

En Estados Unidos hay cunas inteligentes para abandonar recién nacidos

En la actualidad, para garantizar la seguridad y la viabilidad de los recién nacidos ante el deseo de la madre de abandonarlos, se han instalado en algunas ciudades de Estados Unidos en lugares estratégicos las llamadas baby boxes o cunas inteligentes.

Se presentan como auténticas incubadoras, ya que disponen de un sistema acolchado diseñado específicamente para ofrecer un entorno protector que asegura el bienestar del recién nacido e incorpora sensores de temperatura cuya función es mantener condiciones térmicas óptimas que garantizan la supervivencia del bebé.

Igualmente, con el fin de maximizar la seguridad del recién nacido, se ha implementado un sistema de alerta eficiente conforme al que se activa una alarma silenciosa que, al detectar la apertura de la puerta exterior, avisa inmediatamente y de forma directa a las autoridades competentes, permitiendo una intervención rápida y asegurando la protección y asistencia del menor sin comprometer la confidencialidad del proceso.

El antecedente de estos dispositivos los encontramos en los llamados “tornos de expósitos” giratorios instalados en conventos y orfanatos, especialmente a partir del siglo XVIII, que surgieron como una medida para evitar que los niños no deseados o abandonados fueran expuestos al peligro en las calles. Aunque rudimentaria y cuestionable, esta práctica ofrecía una solución más humanitaria que la romana.

Depósito seguro para niños de menos de 30 días

En los Estados Unidos, particularmente en el Estado de Indianapolis, en el año 2016 se establecieron las primeras unidades al amparo de la legislación Indiana. Según la normativa, para poder realizar el depósito es imprescindible que el nacido tenga menos de 30 días, que haya sido dejado de manera voluntaria por el progenitor y que éste no tenga la intención de recuperarlo, asumiéndose la custodia inmediata, sin necesidad de orden judicial, por parte de los servicios médicos de emergencia.

No obstante, también se asumen otras cautelas para determinar si existe alguna denuncia de algún menor desaparecido y de cara también al nombramiento por parte de la autoridad judicial de un tutor o un defensor especial del niño.

Conflicto con el derecho a preservar la identidad

Esta iniciativa también existe en Italia bajo el nombre de Culle per la vita, y en Alemania como Babyklappen. En Polonia, las “ventanas para la vida” o las Okna Życia son gestionadas por Cáritas.

En todos estos ejemplos, los niños son puestos bajo la autoridad del Estado y entran en el sistema de adopción si los padres no los reclaman en un plazo determinado. Además, evitan la criminalización de mujeres en contextos de desesperación, protegiendo la vida de los recién nacidos en momentos críticos.

Sin embargo, algunos expertos destacan que esta práctica vulnera el derecho del niño a conocer su origen biológico, un derecho defendido en la legislación internacional, como se recoge en el artículo 8.1 de la Convención sobre los Derechos del Niño. El artículo establece la obligación de los Estados Parte de “respetar el derecho del niño a preservar su identidad, incluidos la nacionalidad, el nombre y las relaciones familiares…”. Es decir, es más importante que los hijos dados en adopción puedan llegar a conocer a sus padres biológicos que preservar la identidad de estos.

Este derecho es esencial en el debate sobre las baby boxes, ya que si bien los niños abandonados mediante estos sistemas preservan su vida, pueden perder la posibilidad de conocer sus orígenes biológicos.

Por otro lado, se teme que esta práctica pueda fomentar el abandono en lugar de alentar políticas de apoyo social y económico para madres vulnerables. Asimismo, se cuestiona la falta de seguimiento a las madres que, al recurrir a este sistema, pierden la posibilidad de recibir apoyo psicológico o económico.

En cualquier caso es importante tener presente aquellos contextos de extrema vulnerabilidad y desesperación en los que estas babyboxes cumplen una función preventiva crucial, si bien la legislación siempre debe priorizar el interés superior del niño.

La implantación de estos dispositivos en España demandaría una legislación equilibrada que garantice el respeto a otros derechos y promueva alternativas que eviten el abandono anónimo, fomentando la adopción o el acogimiento.The Conversation

Tewise Yurena Ortega González, Profesora Ayudante Doctor de Derecho Romano, Universidad de Las Palmas de Gran Canaria y José Luis Zamora Manzano, Catedrático de Derecho romano, Universidad de Las Palmas de Gran Canaria

Este artículo fue publicado originalmente en The Conversation


Opinión


Estoy totalmente convencido del valor de la opinión. Es el primer derecho que los sistemas autoritarios intentan suprimir. Y no deja de ser curioso, desde un punto de vista meramente antropológico, el observar como este derecho primario es, al tiempo, la factoría más grande de conflictos.
Las opiniones, lamentablemente, no son, pero debieran ser, regalos que se ofrecen al fórum; sea este, la mesa familiar alrededor de una comida o la asistencia de una conferencia o un parlamento político. 
Pero no ocurre esto precisamente. Por regla general se habla de la opinión, en términos posesivos (mi opinión) y se esgrime como símbolo de integridad personal, al punto de que lo inmediato que sucede no es otra cosa que «su defensa» Defendemos la opinión como si fuera nuestra propia vida y no nos damos cuenta de que las opiniones, en un entorno de sensatez, solo tienen una misión: ser contrastadas con las de los demás. Pero contrastar, no significa combatir, ni tampoco enfrentar en el modo deportivo de término.

Nos llamamos «democráticos» a pesar de que, en nuestros debates, opinamos solo con el propósito encubierto de que esa opinión «venza y pueda ser impuesta» (imponerse). Si uno, está dispuesto a reflexionarlo un poco, se dará cuenta de que esto se aleja poco de los sistemas impositivos y autoritarios. Demasiado poco, diría yo.

Hay dos cosas (fáciles de detectar) que envenenan las conversaciones, cuando de opinar se trata:
  • El debate por el debate (discusión). Ocurre cuando, tras una opinión, las explicaciones posteriores son entendidas como «nuevos golpes agresivos» enmarañando aún más la naturaleza del debate al punto de que, en ocasiones, se olvida el tema que lo inició.
  • La sorna, como nuevo elemento agresivo. Añadir la burla o el intento de hacer chistosa la opinión del otro. Una forma sibilina de menospreciar y descalificar tanto a la opinión como al opinante.
Este comportamiento humano y generalizado, no es fácil de superar. Requiere de un muy buen equipamiento cultural que suele dar seguridad en uno mismo y por supuesto, requiere también de una limpieza de prejuicios y disponer de una autoestima equilibrada. Las personas equilibradas en este sentido, opinan mucho y discuten poco.



Orgullo y prejuicio

No, no se trata de la afamada novela de Jane Austen. Se trata de aquello que nos sobra a raudales. Seguimos con la idea darwiniana de que somos los reyes de la creación, el piramidón de la escala piramidal de la evolución. Pero es solo porque estamos cargados de:

Orgullo y prejuicio


Se dice de nosotros que hemos evolucionado, como sociedad, hasta el punto de haber conseguido controlar el hambre, la peste y la guerra. Que alguien me explique por favor, que significa «controlar» porque mi sistema neuronal se queda paralizado, como cuando a mi altavoz inteligente (Google Home) le dicto una orden empezando por «Alexa, ponme una alarma...»
Yuval Harari, dicen en Homo Deus, que controlar consiste en no conformarse, en decirse así mismo —el mundo funciona así— o aquello otro de —es la voluntad de Dios. Dice, que bien al contrario de esas actitudes, pensamos que si esas cosas terribles, escapan a nuestro control, se debe a que alguien "ha metido la pata" que "la ha fastidiado" y que inmediatamente organizamos comisiones de investigación para resolver y que finalmente nos prometemos que "no volverá a ocurrir" 
¡Grande y exitosa evolución, se me antoja! Sí, señores; esto es el culmen de la evolución. Me da la risa.

Guerra: 

No hay más que ver, lo tranquilitos que estamos:
Malí, Región Lago Chad (Boko Haram), Región Sahel Occidental, Somalia, Sudán, Sudán del Sur, Myanmar, Pakistán, Rusia-Ucrania, Iraq, Israel-Palestina, Siria y Yemen.
Por citar los más sonados y algunos con más que evidentes posibilidades de complicarse hasta la amenza nuclear.
¿Organismos de control? ¿ONU, NATO, Tribunal Int. de Justicia? 
¿No será que los únicos que controlan (a su antojo) son los fabricantes y traficantes de armas?

Peste:

¿A qué peste se refieren? ¿Qué es lo que tenemos controlado? Vivimos (no te mires el ombligo, ni mires tu entorno inmediato, si no quieres caer en un terrible error); vivimos -decía- rodeados de:
El Cólera. Una enfermedad gastrointestinal aguda que puede matar a una persona en cuestión de horas. ...
El Dengue. Esta enfermedad vírica emergente es susceptible de provocar epidemias en muchas regiones del mundo. ...Diarrea. ...Ébola. ...Fiebre amarilla. ...Malaria. ...Meningitis. ...Mpox (o viruela del mono).

Hambre:


¿De verdad?
O quizás sí, si entendemos por controlar la distribución de los activos alimentarios. Pero escucha este dato: Muere más gente en el mundo, por comer demasiado, que por comer demasiado poco. Y esto es así y lo que significa es terrible. Medio mundo se come la comida de la otra parte. ¿No lo crees? Allá tú. Buen provecho.




JOMO: la alegría de desconectarse en la era digital

Svittlana/Shutterstock
Oliver Serrano León, Universidad Europea

En un mundo cada vez más interconectado, donde las notificaciones constantes y la necesidad de estar siempre presente en las redes sociales parecen dominar la vida cotidiana, surge un fenómeno que invita a la reflexión: el JOMO, siglas de joy of missing out (la alegría de perderse las cosas).

Este concepto, que se postula como la contrapartida del FOMO (fear of missing out o miedo a perderse algo), es una respuesta a la presión de estar constantemente al día con cada evento, tendencia o experiencia social que surge a nuestro alrededor.

En lugar de sentir ansiedad por no participar, el JOMO propone abrazar la desconexión intencionada y disfrutar de los beneficios de estar ausentes de ciertos momentos.

Permanentemente actualizados

Antes de profundizar en el JOMO, es importante entender su reverso. Desde que las redes sociales comenzaron a formar parte de nuestra vida cotidiana, el FOMO ha sido un término que ha resonado con fuerza, particularmente entre las generaciones más jóvenes.

Este miedo a perderse eventos o experiencias sociales, alimentado en gran parte por las publicaciones y actualizaciones incesantes en plataformas como Instagram, Facebook, X o TikTok, genera una sensación de incomodidad, insuficiencia e incluso ansiedad.

Un estudio de 2013 ya señalaba que el FOMO está profundamente arraigado en las necesidades psicológicas de pertenencia y autoafirmación. Las personas sienten que, al no estar presentes en ciertos eventos, se están quedando excluidas de experiencias significativas o valiosas para su vida.

Esta sensación se exacerba cuando observan a sus amigos o conocidos participando activamente en dichas actividades. Según otra investigación, publicada en Computers in Human Behavior, el uso excesivo de las redes sociales –particularmente entre los jóvenes– está estrechamente relacionado con la vivencia del FOMO y sus efectos negativos en la salud mental, como la baja autoestima y la ansiedad.

Pederse algo como fuente de satisfacción

Frente a esta presión social, surge el JOMO, un movimiento que defiende la idea de que no estar presente o “perderse algo” no solo es aceptable, sino que puede convertirse en una fuente de satisfacción y bienestar personal.

Una de las primeras menciones destacadas del concepto la hizo la escritora canadiense Christina Crook en su libro de 2014 The Joy of Missing Out: Finding Balance in a Wired World. Aunque no era un término nuevo: dos años antes, el empresario Anil Dash ya lo había acuñado para reflexionar sobre la tranquilidad de no participar en todo. Desde entonces, ha tomado cada vez más fuerza como una filosofía que promueve la calma y el disfrute del momento presente.

Es, en definitiva, una invitación a la desconexión intencionada de las redes sociales, las notificaciones y los eventos sociales con el fin de reenfocarse en la creatividad y la tranquilidad mental.

Los beneficios del JOMO

Optar por el JOMO en lugar de sucumbir al FOMO tiene una serie de beneficios tangibles que pueden mitigar los efectos adversos del uso excesivo de las redes sociales. Estos incluyen:

  • Reducción del estrés y la ansiedad. La constante comparación con los demás generada por el FOMO puede llevar a sentir que la propia vida es insuficiente o menos gratificante. El JOMO permite liberarse de esta presión.

    Así lo comprobaron los autores de una investigación realizada los días posteriores al 4 de octubre de 2021, cuando se cayeron los servicios digitales de la compañía Meta (propietaria de Facebook, Instagram y WhatsApp) durante varias horas. Aunque algunos usuarios fueron presa del FOMO, otros muchos confesaron haber sentido un reconfortante alivio.

  • Mayor tiempo para la introspección. Al desconectarse del ruido externo, las personas pueden reenfocarse en sí mismas, lo que fomenta la autoexploración, el desarrollo personal y una mayor claridad sobre lo que realmente importa en sus vidas.

  • Fomento de la creatividad. El tiempo libre y la tranquilidad permiten que la mente se relaje y divague. Diversos estudios han demostrado que el “aburrimiento” o la desconexión pueden ser catalizadores de nuevas ideas.

  • Mejora de las relaciones personales. Al optar por el JOMO, las personas tienden a priorizar los encuentros cara a cara y las conexiones significativas sobre las interacciones, a menudo superficiales, on-line.

Cómo incorporar el JOMO en nuestra vida diaria

Apuntarse al JOMO no significa renunciar completamente a la tecnología o las interacciones sociales. Más bien, implica encontrar un equilibrio saludable entre la conectividad y la desconexión.

Algunas formas de integrarlo incluyen las siguientes pautas:

  • Establecer límites digitales. Definir horarios específicos para revisar las redes sociales o responder a mensajes puede ayudar a reducir el tiempo frente a la pantalla y promover una relación más sana con la tecnología.

  • Implementar el minimalismo digital. Este concepto implica usar solo aquellas plataformas y herramientas tecnológicas que verdaderamente agreguen valor a nuestra vida.

  • Priorizar el tiempo personal. Dedicar tiempo a actividades que nutran el bienestar físico y mental, como leer, hacer ejercicio, meditar o, simplemente, descansar.

En definitiva, adoptar el JOMO no implica una renuncia definitiva al mundo digital o a las interacciones sociales, sino una toma de conciencia sobre cómo y cuándo es mejor estar conectados.The Conversation

Oliver Serrano León, Director del Máster de Psicología General Sanitaria de la Universidad Europea de Canarias. Profesor del Grado Online de Psicología en la Universidad Europea de Canarias, Universidad Europea

Este artículo fue publicado originalmente en The Conversation


Soluciones celestes

Para qué nos vamos a engañar. Somos una especie violenta consigo mismo. Además de ser socialmente el máximo depredador de nosotros mismos, viviendo muchos, gracias al sudor y el sufrimiento de otros.

Además de eso, somos violentos y no tenemos capacidad demostrable de solucionar nuestras diferencias de otro modo que a garrotazos. Quizás no debamos resignarnos a esa naturaleza, pero en cualquier caso, sí que tenemos que desengañarnos y aceptar lo difícil que es, que este «mono pelado» sepa superar esa forma de proceder. 

Nuestra historia, está escrita, no sobre papeles, sino sobre campos de batalla. No, con tinta, sino con sangre. 
Los conflictos han ido creciendo en extensión a medida que el armamento y la movilidad han ido evolucionando. Durante muchos siglos, hicimos la guerra sobre mulas y caballos. Ahora, una potencia bélica no está en su país, sino que tiene armas en todos los continentes. Con la llegada del siglo XX, acuñamos el concepto «guerra mundial» si bien nunca ha sido lo suficientemente extensa como poder, en rigor, entenderse como tal. 
A cada gran guerra, ha sucedido un periodo de paz, más o menos reconocible, aunque no es cosa fácil, ya que los conflictos que hay en cada punto de la historia se cuentan siempre y en le mejor de los periodos, con docenas y superando los cientos, muchas veces. La humanidad no sabe estar en paz total, ni por un solo día. 
Cuando acabó la Segunda Gran Guerra, Europa y el Pacífico, desarmaron sus fusiles y guardaron la munición. Pero la semilla, siguió allí, en un cajón, esperando el momento de germinar. Desde 1945 hasta 2001, no fue exactamente un periodo de paz, aunque sí es válido entender que fue una época de progreso y reconstrucción. Unas pocas décadas que se fulminaron con la caída de las Torres Gemelas. Han pasado 23 años, y muchas veces se ha abierto el cajón de las semillas y se las ha puesto a germinar.

El futuro es gris, humeante y descorazonador. Unos rezarán a los cielos, otros no, y quizás con suerte algunos empiecen a apostar por esa «consciencia de especie» reclamada por pensadores. ¿Lograremos esa consciencia? 
—Lo dudo tanto y tengo tan poca fe, que ya soy de los que piensan que el meteorito está tardando demasiado.
Quizás al final, los cielos respondan a los rezos, aunque no de la forma deseada.


 

La amargura de J.I. Guillotin


Ya sabes. Consultas una cosa y acabas enterandote de otras no menos interesantes. A continuación, algo que ignoraba y me ha gustado saberlo. Y por favor no me preguntes por mi interés en la guillotina. No tiene importancia... cosas de viejo.

Resulta que Joseph-Ignace Guillotin, no fue el inventor de la guillotina y aunque su vinculación con la misma, nadie la puede negar, el hombre vivió amargado por el nombre popular con el cual acabó conociéndose esa máquina. 

Antes de la Revolución Francesa, los condenados a muerte en Francia eran decapitados con una espada, si eran nobles; con hachas, si eran plebeyos y colgados en la horca, si se trataba de ladrones de poca monta. Los falsificadores y los herejes corrían un destino mucho peor: arder vivos o ser hervidos en grandes calderos hasta su muerte.
Al médico y político Joseph-Ignace Guillotin tales métodos de ejecución se le antojaban crueles. Morir decapitado podía ser una experiencia más o menos rápida y relativamente indolora. Pero los reos quedaban, nunca mejor dicho, en manos de la habilidad de los verdugos, y a merced de la eficacia de la herramienta cortante. Si la espada o el hacha empleadas tenían un filo bien cortante, y el verdugo era hábil, el sufrimiento terminaba pronto. De lo contrario, estaba garantizado un final más prolongado y doloroso.

Para «humanizar» las decapitaciones, Guillotin hizo algo importante: propuso a la Asamblea Nacional Constituyente reducir el sufrimiento de los reos, que debían ser tratados con una mínima dignidad. Con ese propósito en mente planteó la posibilidad de recuperar un sistema mecánico de decapitación que ya tenía largo recorrido, entre otras, en tierras escocesas: una máquina para separar la cabeza del cuerpo sin agonía en el condenado; una decapitadora.
Con ayuda del instrumento se conseguía, además de una muerte más rápida que con la espada, una menor intervención del verdugo. Pero Guillotin fue más allá, proponiendo ampliar el uso de la decapitadora a todos los culpables, de cualquier rango y condición. Así lo expresó en su proyecto de reforma de la legislación penal, el 1 de diciembre de 1789, que fue aprobado un par de años más tarde. El 6 de octubre de 1791 el Código Penalrezaba así: «La pena de muerte consistirá en la simple privación de la vida, sin que sea posible ninguna tortura contra el condenado». A lo que se añadía: «A todos los condenados a muerte se les cortará la cabeza". El objetivo de igualdad y de reducción de la crueldad que perseguía Guillotin tenía un fin último, que era terminar por abolir la pena de muerte.

Sin embargo, la idea tuvo tal éxito que la decapitadora se asoció para siempre con su nombre. La bautizada como guillotina se convirtió en un objeto de moda. Incluso se cantaban canciones en su honor, celebrando lo rápido que terminaba con la vida de los indeseables.
 Lejos de allanar el camino hacia la abolición de la pena de muerte, la sangre corrió más que nunca por las calles francesas.
Guillotin pasó el resto de su vida maldiciendo que la decapitadora recibiera su nombre, cuando en realidad él no la diseñó.
Su verdadero padre fue el cirujano militar francés Antoine Louis. La Asamblea Nacional encargó al doctor Louis que diseñara dicho dispositivo. La máquina se basaba en varios modelos, entre ellos la "Gibbet de Halifax", usada en Inglaterra desde el siglo XIII hasta el XVII, y la llamada "doncella escocesa" ("The Maiden"), que se empleó desde el siglo XVI al XVIII en Edimburgo.
Bajo instrucciones precisas de Louis, el carpintero alemán Tobias Schmidt construyó la primera decapitadora. Al principio, la nueva máquina se llamó "louisette", y también "louison", en honor a su inventor. Pero la prensa pronto la denominó guillotina.

Después de probar con ovejas y cadáveres humanos, se modificó la hoja en forma de media luna, que pasó a ser triangular, para garantizar un corte limpio y rápido. A partir de abril de 1792 se utilizó la guillotina en todas las ejecuciones públicas, exceptuando algún fusilamiento.
Aunque la guillotina tuvo un diseño francés, es tan solo una forma moderna de mecanismo decapitador, pero han existido muchos y diversos. El mismo nombre "pena capital" (del latín caput, cabeza), indica que la pena máxima está asociada etimológicamente a la separación del cuerpo y la cabeza.
Los humanos hemos estado cortando las cabezas al enemigo desde tiempos inmemoriales. La Paleta de Narmer, una placa egipcia de pizarra que data del 3000 a. C., muestra grabados de una serie de prisioneros decapitados. Morir decapitado era, para la cultura grecolatina clásica, una de las formas más honorables de dar muerte a los criminales. Los celtas, por su parte, elevaron a la categoría ritual la "caza de cabezas", es decir, la conservación de las cabezas de sus enemigos, que clavaban en las paredes o colgaban del cuello de los caballos.

La última ejecución con guillotina, en suelo francés, fue la del condenado a muerte Hamida Djandoubi, y tuvo lugar el 10 de septiembre de 1977, en la prisión de Baumettes (Marsella). Fue la última víctima de una larga lista que engrosaron nombres tan célebres como Luis XVI, María Antonieta o Madame du Barry, que pasaron por la "louisette" en 1793.

El 9 de octubre de 1981 la pena de muerte fue abolida en Francia. Pero la guillotina y su sanguinaria historia forjaron uno de los símbolos más populares de la Revolución Francesa, para desesperación de Guillotin.

Y tú, ¿eres diestro o zurdo?

¿Por qué la mayoría de las personas son diestras y no zurdas?

Impresiones de manos, mayoritariamente izquierdas, en la cueva de las Manos, en Argentina. Mariano/Wikimedia Commons, CC BY-SA
Ildefonso Alonso Tinoco, Universidad de Málaga; A. Victoria de Andrés Fernández, Universidad de Málaga y Paul Palmqvist Barrena, Universidad de Málaga

Es curioso que la mayoría de los humanos seamos diestros, pero ¿es algo azaroso o es consecuencia de la selección natural?

En general, lo derecho se asocia con destreza, competencia y corrección, mientras que lo izquierdo está cargado de connotaciones negativas. De hecho, zurdo, según la RAE, es sinónimo de maligno, siniestro, perverso o amenazador, consideración presente desde tiempos remotos. Sin ir más lejos, en las representaciones paleocristianas del Juicio Final los justos se sitúan a la derecha de Dios Padre, mientras que los condenados eternamente se ubican a su izquierda. En culturas orientales se encuentran valoraciones similares y en el mundo islámico se reserva la mano izquierda para funciones escatológicas.

En cualquier caso, lo siniestro ha incorporado culturalmente un estigma negativo, asociándose con “rarezas sospechosas” y marginando a sus portadores. Algo similar a lo que sucede con otras anomalías, como el albinismo en el África negra.

¿A qué obedece esta distinta valoración?

La explicación intuitiva es que lo más frecuente, estadísticamente, es tener más habilidad en el brazo derecho que en el izquierdo. Aunque hay variaciones entre distintos pueblos (China: <5 % de zurdos, Occidente: 10-12  %), la opción diestra siempre es mayoritaria. No obstante, lo frecuente no tiene por qué ser lo mejor en términos adaptativos, pudiendo obedecer a una contingencia aleatoria.

Entonces, ¿por qué somos mayoritariamente diestros? ¿Qué es lo que subyace biológicamente a este fenómeno?

Primera hipótesis: naturaleza genética ligada al sexo

Se sabe que los zurdos tienen una probabilidad ligeramente menor de sobrevivir hasta edades avanzadas y su porcentaje es superior en los hombres, por lo que se ha relacionado con los niveles de testosterona. La condición zurda se fija en torno a la pubertad y se asocia con mayor frecuencia de enfermedades inmunes, migrañas y desórdenes cognitivos durante el aprendizaje y la maduración.

¿Está entonces la condición zurda codificada genéticamente en los cromosomas sexuales? En el cromosoma Y desde luego que no, puesto que hay mujeres zurdas. Entonces, ¿se localizaría este supuesto gen en el cromosoma X? En tal caso, la condición hemicigótica masculina (XY) haría más frecuente tales fenotipos si fuese un carácter recesivo.

No obstante, esta propuesta tampoco sería satisfactoria, puesto que no explica que la condición zurda sea más frecuente en mellizos, neonatos prematuros e individuos que han soportado estrés o condiciones de hipoxia fetales. De hecho, tales circunstancias ocasionan también una prevalencia de la condición zurda en los chimpancés, nuestros parientes vivos más próximos. Tampoco las frecuencias de aparición responderían a una herencia mendeliana típica ligada al sexo, pues entonces sería esperable que un 50 % de los hombres fuesen zurdos y sólo el 25 % de las mujeres.

De tener, pues, una naturaleza genética, se trataría de algo más complejo.

Segunda hipótesis: la presunta ventaja adaptativa de los diestros

Aunque ambas manos pueden, potencialmente, desarrollar la misma fuerza y destreza, la realidad es que no lo hacen. Esta asimetría morfológica podría evidenciar procesos anatómicos internos que sufren desarrollos diferenciales en ambos lados del cuerpo. Las primeras etapas embrionarias de los mamíferos responden a un desarrollo de órganos y sistemas de clara simetría bilateral. No obstante, el aparato digestivo manifiesta asimetrías muy tempranas en el posicionamiento de sus órganos.

También aparecen en la configuración diferencial de los pulmones (dos lóbulos en el izquierdo frente a tres en el derecho). Igualmente, el vaso circulatorio primigenio se curva, retuerce, compartimenta y crece diferencialmente, generando un mayor desarrollo del arco aórtico izquierdo (en mamíferos, porque en aves el dominante es el derecho).

El resultado es que el órgano vital por antonomasia, el corazón, se sitúa desplazado hacia el hemitórax izquierdo, al igual que la aorta.

Reflexionemos sobre este hecho. Dado que cualquier lesión potencial revestirá más peligrosidad en el tórax que en el abdomen, y más en el hemitórax izquierdo que en el derecho, los humanos hemos tendido siempre a proteger esta zona. La bipedestación aumentó la exposición y vulnerabilidad de nuestro tórax. Esto nos llevaría a pensar que la condición diestra es potencialmente más “adaptativa”, por implicar una mayor tasa de supervivencia.

Los ejércitos de diferentes culturas han desarrollado escudos que, portados con el brazo izquierdo, protegen el hemitórax de este lado del cuerpo. Con ello, dejan libre para atacar la mano derecha. Ahora bien, en biología evolutiva hay que tener en cuenta que, en ciertas características, se da una selección inversamente dependiente de la frecuencia. En otras palabras, los zurdos tienen ventajas de cara al combate individual en un mundo de diestros.

No obstante, esta razón se descarta porque integrar zurdos en formaciones militares cerradas acarrea más problemas de coordinación con los diestros que ventajas individuales. Además, esta explicación no afecta a las mujeres, que no han participado masivamente en formaciones militares.

Para intentar contrastar esta hipótesis necesitaríamos conocer si las primeras manifestaciones de lo zurdo son anteriores a la aparición, relativamente reciente, de escudos y espadas. Efectivamente es así, pues las poblaciones de cazadores-recolectores actuales, con un género de vida similar al del Paleolítico y que no usan escudos, son también predominantemente diestras.

Estimaciones tempranas de la condición zurda las tenemos en la argentina cueva de las Manos, cuyos motivos más antiguos se han datado en el octavo milenio a. e. c. En ella, las 829 impresiones negativas de manos izquierdas, frente a tan solo 31 derechas, nos hablan de que sus pobladores eran mayoritariamente diestros.

Las manos estampadas con técnicas parecidas en cuevas españolas, francesas e italianas reflejan una condición similar en poblaciones europeas más antiguas: el caso de las 57 manos izquierdas impresas de la cacereña cueva de Maltravieso (quizás de neandertales por su cronología, estimada en más de 64 000 años) o las 275 de la santanderina cueva del Castillo, la mayoría de mujeres.

Otra forma de conocer la naturaleza zurda o diestra de las poblaciones primigenias sería el análisis de la lateralidad en marcas y ralladuras producidas con útiles líticos sobre los huesos de sus presas o sobre su propia dentición. En la población de la Sima de los Huesos de Atapuerca, con más de 450 000 años de antigüedad, se ha descubierto así que los Homo heidelbergensis eran ya predominantemente diestros. Otras especies más antiguas de nuestro linaje evolutivo muestran en sus moldes cerebrales evidencias de dominancia diestra.

Según lo expuesto, pues, no queda definitivamente clara la causa del predominio de la condición diestra. En cualquier caso, y considerando que la esperanza de vida de los zurdos es algo menor que la de la población general, podría considerarse que esta condición sigue entrañando “mala suerte”.The Conversation

Ildefonso Alonso Tinoco, Médico adjunto especialista en obstetricia y ginecología, Universidad de Málaga; A. Victoria de Andrés Fernández, Profesora Titular en el Departamento de Biología Animal, Universidad de Málaga y Paul Palmqvist Barrena, Catedrático de Paleontología, Universidad de Málaga

Este artículo fue publicado originalmente en The Conversation


Aquestes son les 6 entrades més recents: