por Sandy Hingston.
Hace algunas décadas, en Mauricio, una pequeña isla frente a la costa de Madagascar, un grupo de investigadores sentó a 1.795 niños de tres años a la vez, les pusieron unos auriculares, reprodujeron un tono, esperaron unos segundos, y después les hicieron escuchar un ruido de objetos metálicos tintineando. El primer sonido, seguido del segundo, se repetía una y otra vez. Cada niño fue conectado a unos electrodos que medían la cantidad de sudor excretado en los intervalos entre los tonos. La inmensa mayoría de los niños empezó a sudar una barbaridad después de haber escuchado el primer tono, al asociarlo con el segundo y doloroso tono que le seguía.
Veinte años después, los investigadores identificaron a 137 de esos niños que al crecer tuvieron antecedentes penales —detenciones por temas de drogas, infracciones de tráfico, agresiones violentas—. Los juntaron con una «cohorte» de participantes con procedencias similares, pero sin antecedentes penales. Entonces compararon las pruebas de los grupos infantiles. Descubrieron que la cohorte había anticipado los desagradables segundos tonos. Pero los niños que se convirtieron en delincuentes demostraron una absoluta falta de anticipación a los tres años de edad.
Seguir leyendo en español.
English version.
“Ningún poder en la tierra podrá arrancarte lo que has vivido.” Viktor Frankl
Mostrando entradas con la etiqueta Neurociencia. Mostrar todas las entradas
Mostrando entradas con la etiqueta Neurociencia. Mostrar todas las entradas
Why we don't believe in science
Last week, Gallup announced the results of their latest survey on Americans and evolution. The numbers were a stark blow to high-school science teachers everywhere: forty-six per cent of adults said they believed that “God created humans in their present form within the last 10,000 years.” Only fifteen per cent agreed with the statement that humans had evolved without the guidance of a divine power.
What’s most remarkable about these numbers is their stability: these percentages have remained virtually unchanged since Gallup began asking the question, thirty years ago. In 1982, forty-four per cent of Americans held strictly creationist views, a statistically insignificant difference from 2012. Furthermore, the percentage of Americans that believe in biological evolution has only increased by four percentage points over the last twenty years.
Such poll data raises questions: Why are some scientific ideas hard to believe in? What makes the human mind so resistant to certain kinds of facts, even when these facts are buttressed by vast amounts of evidence?
A new study in Cognition, led by Andrew Shtulman at Occidental College, helps explain the stubbornness of our ignorance. As Shtulman notes, people are not blank slates, eager to assimilate the latest experiments into their world view. Rather, we come equipped with all sorts of naïve intuitions about the world, many of which are untrue. For instance, people naturally believe that heat is a kind of substance, and that the sun revolves around the earth. And then there’s the irony of evolution: our views about our own development don’t seem to be evolving.
This means that science education is not simply a matter of learning new theories. Rather, it also requires that students unlearn their instincts, shedding false beliefs the way a snake sheds its old skin.
To document the tension between new scientific concepts and our pre-scientific hunches, Shtulman invented a simple test. He asked a hundred and fifty college undergraduates who had taken multiple college-level science and math classes to read several hundred scientific statements. The students were asked to assess the truth of these statements as quickly as possible.
To make things interesting, Shtulman gave the students statements that were both intuitively and factually true (“The moon revolves around the Earth”) and statements whose scientific truth contradicts our intuitions (“The Earth revolves around the sun”).
As expected, it took students much longer to assess the veracity of true scientific statements that cut against our instincts. In every scientific category, from evolution to astronomy to thermodynamics, students paused before agreeing that the earth revolves around the sun, or that pressure produces heat, or that air is composed of matter. Although we know these things are true, we have to push back against our instincts, which leads to a measurable delay.
What’s surprising about these results is that even after we internalize a scientific concept—the vast majority of adults now acknowledge the Copernican truth that the earth is not the center of the universe—that primal belief lingers in the mind. We never fully unlearn our mistaken intuitions about the world. We just learn to ignore them.
Shtulman and colleagues summarize their findings:
When students learn scientific theories that conflict with earlier, naïve theories, what happens to the earlier theories? Our findings suggest that naïve theories are suppressed by scientific theories but not supplanted by them.
While this new paper provides a compelling explanation for why Americans are so resistant to particular scientific concepts—the theory of evolution, for instance, contradicts both our naïve intuitions and our religious beliefs—it also builds upon previous research documenting the learning process inside the head. Until we understand why some people believe in science we will never understand why most people don’t.
In a 2003 study, Kevin Dunbar, a psychologist at the University of Maryland, showed undergraduates a few short videos of two different-sized balls falling. The first clip showed the two balls falling at the same rate. The second clip showed the larger ball falling at a faster rate. The footage was a reconstruction of the famous (and probably apocryphal) experiment performed by Galileo, in which he dropped cannonballs of different sizes from the Tower of Pisa. Galileo’s metal balls all landed at the exact same time—a refutation of Aristotle, who claimed that heavier objects fell faster.
While the students were watching the footage, Dunbar asked them to select the more accurate representation of gravity. Not surprisingly, undergraduates without a physics background disagreed with Galileo. They found the two balls falling at the same rate to be deeply unrealistic. (Intuitively, we’re all Aristotelians.) Furthermore, when Dunbar monitored the subjects in an fMRI machine, he found that showing non-physics majors the correct video triggered a particular pattern of brain activation: there was a squirt of blood to the anterior cingulate cortex, a collar of tissue located in the center of the brain. The A.C.C. is typically associated with the perception of errors and contradictions—neuroscientists often refer to it as part of the “Oh shit!” circuit—so it makes sense that it would be turned on when we watch a video of something that seems wrong, even if it’s right.
This data isn’t shocking; we already know that most undergrads lack a basic understanding of science. But Dunbar also conducted the experiment with physics majors. As expected, their education enabled them to identify the error; they knew Galileo’s version was correct.
But it turned out that something interesting was happening inside their brains that allowed them to hold this belief. When they saw the scientifically correct video, blood flow increased to a part of the brain called the dorsolateral prefrontal cortex, or D.L.P.F.C. The D.L.P.F.C. is located just behind the forehead and is one of the last brain areas to develop in young adults. It plays a crucial role in suppressing so-called unwanted representations, getting rid of those thoughts that aren’t helpful or useful. If you don’t want to think about the ice cream in the freezer, or need to focus on some tedious task, your D.L.P.F.C. is probably hard at work.
According to Dunbar, the reason the physics majors had to recruit the D.L.P.F.C. is because they were busy suppressing their intuitions, resisting the allure of Aristotle’s error. It would be so much more convenient if the laws of physics lined up with our naïve beliefs—or if evolution was wrong and living things didn’t evolve through random mutation. But reality is not a mirror; science is full of awkward facts. And this is why believing in the right version of things takes work.
Of course, that extra mental labor isn’t always pleasant. (There’s a reason they call it “cognitive dissonance.”) It took a few hundred years for the Copernican revolution to go mainstream. At the present rate, the Darwinian revolution, at least in America, will take just as long.
Illustration courtesy of Hulton Archive/Getty Images.
¿Qué pasa con el libre albedrío?
Jorge Alcalde.
Cuando, en la madrugada del 6 de junio, Venus culminó su tránsito entre la Tierra y el Sol, regalando imágenes astronómicas de insuperable belleza, lo hizo según un programa establecido hace 15.000 millones de años. De alguna manera, con la explosión primordial del Big Bang se crearon las condiciones que habrían de predestinar eones más tarde a un planeta inhabitado del Sistema Solar a arrojar su sombra sobre el Sol.
|
Todo está escrito en el mundo físico. Por eso los astrónomos son capaces de predecir con milimétrica precisión cuándo volverá a ocurrir un tránsito de Venus como el de este año: en 2117. Pueden ocurrir catástrofes, impactos de asteroides, erupciones de radiación estelar, fenómenos inadvertidos pero no fortuitos. Cualquier sopresa que nos depare el Cosmos ha de ocurrir según las leyes de la física, y tiene su día y su hora programados.
El determinismo de la física, al menos de la física de los más grandes, la mecánica que debemos a Newton y a Einstein, ha impregnado otros muchos campos del saber. No son pocos los científicos que sueñan con encontrar las mismas reglas precisas e incorruptibles para el origen de la vida, la evolución de los organismos, el desarrollo de los mercados bursátiles, el clima, la mente humana...
¿No es la mente (dicen) un producto de la materia? Se organizan neuronas que son entidades químicas formadas por proteínas que han sido codificadas por genes que son moléculas... y esas neuronas desarrollan una actividad fisicoquímica, intercambiando señales eléctricas que funcionan según las leyes del electromagnetismo y mercadeando con sustancias que siguen los postulados de la química orgánica. Es cedir, el cerebro se puede explicar básicamente con las mismas ecuaciones que permiten comprender por qué se enciende una bombilla al hacer pasar una corriente eléctrica por sus filamentos. Si la mente es un producto del cerebro, ¿nuestros pensamientos, nuestras creencias, emociones y manías, nuestros prejuicios, miedos, amores y odios están también sometidos al dictado determinista de la leyes físicas?
No son pocos los neurólogos que opinan que así es. De hecho, es corriente mayoritaria la de los expertos que prefieren pensar que nuestra mente es sólo sustrato físico. Y todos deseamos que, al menos en parte, así sea. "No nos gustaría que fuera de otra manera, en ocasiones", dice Michael Gazzaniga. "No nos gustaría que la acción de llevarnos la mano a la boca fuera un proceso aleatorio, queremos el helado en los labios, no en la frente"
Pero si todas las facultades de la mente están igualmente sometidas a las leyes del mundo físico, ¿no terminamos siendo una suerte de zombis sin libre albedrío? Mi voto en las pasadas elecciones, mi deseo de abrazar a mis hijos cuando llego a casa, la elección de pareja, mi aversión a los impuestos, mi pasión futbolera... ¿son sólo productos de un programa establecido hace 15.000 millones de años? Con la explosión del Big Bang nacieron las condiciones físicas y químicas que terminarían conduciendo a que Venus transitara ante la Tierra en junio de 2012 y que Jorge Alcalde decidiera unas semanas antes comprarse y leer con placer ¿Quién manda aquí?, de Michael Gazzaniga, editorial Paidós.
Por extraño que parezca, entre la comunidad científica cunden los que creen que el mundo funciona así, que vivimos en un universo que lo determina todo. Incluso nuestra mente. Michael Gazzaniga pertenece a la rara avis de neurocientíficos que opinan lo contrario. Su último libro es, precisamente, un alegato científico contra el determinismo neuronal. En sus 313 páginas de argumentación científica trata de defender que los actos humanos son sólo responsabilidad nuestra, de esa unidad específica y exclusiva a la que llamamos individuo. Que "la magnificencia de ser humano es algo que todos valoramos y no queremos que desaparezca con la ciencia". Queremos sentir nuestra propia valía manifestada en el libre albedrío de nuestras decisiones, que escapa a las leyes deterministas de la física. Queremos y podemos porque, según Gazzaniga, la ciencia no está en disposición de demostrar lo contrario. En sus propias palabras,
MICHAEL S. GAZZANIGA: ¿QUIÉN MANDA AQUÍ? EL LIBRE ALBEDRÍO Y LA CIENCIA DEL CEREBRO. Paidós (Barcelona), 2012, 320 páginas. Traducción de Marta Pino Moreno.
twitter.com/joralcalde
El determinismo de la física, al menos de la física de los más grandes, la mecánica que debemos a Newton y a Einstein, ha impregnado otros muchos campos del saber. No son pocos los científicos que sueñan con encontrar las mismas reglas precisas e incorruptibles para el origen de la vida, la evolución de los organismos, el desarrollo de los mercados bursátiles, el clima, la mente humana...
¿No es la mente (dicen) un producto de la materia? Se organizan neuronas que son entidades químicas formadas por proteínas que han sido codificadas por genes que son moléculas... y esas neuronas desarrollan una actividad fisicoquímica, intercambiando señales eléctricas que funcionan según las leyes del electromagnetismo y mercadeando con sustancias que siguen los postulados de la química orgánica. Es cedir, el cerebro se puede explicar básicamente con las mismas ecuaciones que permiten comprender por qué se enciende una bombilla al hacer pasar una corriente eléctrica por sus filamentos. Si la mente es un producto del cerebro, ¿nuestros pensamientos, nuestras creencias, emociones y manías, nuestros prejuicios, miedos, amores y odios están también sometidos al dictado determinista de la leyes físicas?
Pero si todas las facultades de la mente están igualmente sometidas a las leyes del mundo físico, ¿no terminamos siendo una suerte de zombis sin libre albedrío? Mi voto en las pasadas elecciones, mi deseo de abrazar a mis hijos cuando llego a casa, la elección de pareja, mi aversión a los impuestos, mi pasión futbolera... ¿son sólo productos de un programa establecido hace 15.000 millones de años? Con la explosión del Big Bang nacieron las condiciones físicas y químicas que terminarían conduciendo a que Venus transitara ante la Tierra en junio de 2012 y que Jorge Alcalde decidiera unas semanas antes comprarse y leer con placer ¿Quién manda aquí?, de Michael Gazzaniga, editorial Paidós.
Por extraño que parezca, entre la comunidad científica cunden los que creen que el mundo funciona así, que vivimos en un universo que lo determina todo. Incluso nuestra mente. Michael Gazzaniga pertenece a la rara avis de neurocientíficos que opinan lo contrario. Su último libro es, precisamente, un alegato científico contra el determinismo neuronal. En sus 313 páginas de argumentación científica trata de defender que los actos humanos son sólo responsabilidad nuestra, de esa unidad específica y exclusiva a la que llamamos individuo. Que "la magnificencia de ser humano es algo que todos valoramos y no queremos que desaparezca con la ciencia". Queremos sentir nuestra propia valía manifestada en el libre albedrío de nuestras decisiones, que escapa a las leyes deterministas de la física. Queremos y podemos porque, según Gazzaniga, la ciencia no está en disposición de demostrar lo contrario. En sus propias palabras,
es posible defender que una compresión científica más completa de la naturaleza y de la vida, del cerebro y de la mente no va en detrimento de ese valor que todos apreciamos.Tras transitar por estas páginas es muy probable que los que creen que todo está escrito en los genes sigan pensándolo. Para el resto, nos queda el argumento técnico de que la ciencia aún alberga demasiadas incertidumbres para tomar partido. Y el argumento intelectual de que reducir nuestros actos al designio de la física es la salida más fácil y perezosa. Ante el dilema de no saber cómo funcionamos, tan perezoso es creer que lo hacemos porque así lo mandó Dios como creer que lo hacemos porque una cadena de aminoácidos decide por nosotros.
MICHAEL S. GAZZANIGA: ¿QUIÉN MANDA AQUÍ? EL LIBRE ALBEDRÍO Y LA CIENCIA DEL CEREBRO. Paidós (Barcelona), 2012, 320 páginas. Traducción de Marta Pino Moreno.
twitter.com/joralcalde
Music: It's in your head, changing your brain
Elizabeth Landau.
(CNN) -- Michael Jackson was on to something when he sang that "A-B-C" is "simple as 'Do Re Mi.'" Music helps kids remember basic facts such as the order of letters in the alphabet, partly because songs tap into fundamental systems in our brains that are sensitive to melody and beat.
That's not all: when you play music, you are exercising your brain in a unique way.
"I think there's enough evidence to say that musical experience, musical exposure, musical training, all of those things change your brain," says Dr. Charles Limb, associate professor of otolaryngology and head and neck surgery at Johns Hopkins University. "It allows you to think in a way that you used to not think, and it also trains a lot of other cognitive facilities that have nothing to do with music."
The connection between music and the brain is the subject of a symposium at the Association for Psychological Science conferencein Chicago this weekend, featuring prominent scientists and Grammy-winning bassist Victor Wooten. They will discuss the remarkable ways our brains enable us to appreciate, remember and play music, and how we can harness those abilities in new ways.
There are more facets to the mind-music connection than there are notes in a major scale, but it's fascinating to zoom in on a few to see the extraordinary affects music can have on your brain.
Continue reading in CNN.
(CNN) -- Michael Jackson was on to something when he sang that "A-B-C" is "simple as 'Do Re Mi.'" Music helps kids remember basic facts such as the order of letters in the alphabet, partly because songs tap into fundamental systems in our brains that are sensitive to melody and beat.
That's not all: when you play music, you are exercising your brain in a unique way.
"I think there's enough evidence to say that musical experience, musical exposure, musical training, all of those things change your brain," says Dr. Charles Limb, associate professor of otolaryngology and head and neck surgery at Johns Hopkins University. "It allows you to think in a way that you used to not think, and it also trains a lot of other cognitive facilities that have nothing to do with music."
The connection between music and the brain is the subject of a symposium at the Association for Psychological Science conferencein Chicago this weekend, featuring prominent scientists and Grammy-winning bassist Victor Wooten. They will discuss the remarkable ways our brains enable us to appreciate, remember and play music, and how we can harness those abilities in new ways.
There are more facets to the mind-music connection than there are notes in a major scale, but it's fascinating to zoom in on a few to see the extraordinary affects music can have on your brain.
Continue reading in CNN.
10 Brainteasers to Test Your Mental Sharpness
Holly Green.
To test your mental acuity, answer the following questions (no peeking at the answers!):
1. Johnny’s mother had three children. The first child was named April. The second child was named May. What was the third child’s name?
2. A clerk at a butcher shop stands five feet ten inches tall and wears size 13 sneakers. What does he weigh?
3. Before Mt. Everest was discovered, what was the highest mountain in the world?
4. How much dirt is there in a hole that measures two feet by three feet by four feet?
5. What word in the English language is always spelled incorrectly?
6. Billie was born on December 28th, yet her birthday always falls in the summer. How is this possible?
7. In British Columbia you cannot take a picture of a man with a wooden leg. Why not?
8. If you were running a race and you passed the person in 2nd place, what place would you be in now?
9. Which is correct to say, “The yolk of the egg is white” or “The yolk of the egg are white?”
10. A farmer has five haystacks in one field and four haystacks in another. How many haystacks would he have if he combined them all in one field?
Answers
1. Johnny.
2. Meat.
3. Mt. Everest. It just wasn’t discovered yet.
4. There is no dirt in a hole.
5. Incorrectly (except when it is spelled incorrecktly).
6. Billie lives in the southern hemisphere.
7. You can’t take a picture with a wooden leg. You need a camera (or iPad or cell phone) to take a picture.
8. You would be in 2nd place. You passed the person in second place, not first.
9. Neither. Egg yolks are yellow.
10. One. If he combines all his haystacks, they all become one big stack.
1. Johnny.
2. Meat.
3. Mt. Everest. It just wasn’t discovered yet.
4. There is no dirt in a hole.
5. Incorrectly (except when it is spelled incorrecktly).
6. Billie lives in the southern hemisphere.
7. You can’t take a picture with a wooden leg. You need a camera (or iPad or cell phone) to take a picture.
8. You would be in 2nd place. You passed the person in second place, not first.
9. Neither. Egg yolks are yellow.
10. One. If he combines all his haystacks, they all become one big stack.
Okay, some of these are a bit corny. But they all illustrate several brain idiosyncrasies that affect how we make decisions in the world.
Thanks to the way our brain works, we have a very strong tendency to see what we want to see and what we expect to see. This has huge implications when studying our customers, markets, competitors, and other data that influences key business decisions.
When we only see what we want or expect to see, we miss competitive threats because our brain tells us a threat couldn’t possibly come from that direction. We miss opportunities because we only see what has worked in the past rather than what could be. And we miss major market shifts and changes in customer needs that seem obvious in hindsight but are easily overlooked when focusing on what we already know.
Our brain doesn’t like information gaps, so we tend to jump at the first answer/solution that looks good rather than take the time to examine all the data. This is especially true in a world where we receive more information every day than we have time to assimilate. Finally, our brains love to see patterns and make connections. This trait serves us well in many ways as we move through the world. But the brain doesn’t always get it right.
For example, how did you answer question #1 (be honest)? For most people, the first word that pops into their head is “June,” because the brain quickly spots the April/May/June pattern. Upon re-reading the question and analyzing the data, the answer “Johnny” becomes obvious.
And what about the man with the wooden leg? Your answer depends on how you interpret “with.” Does it refer to the man with the wooden leg or to the camera? A bit of a trick question, but it clearly illustrates how the language we use shapes the way we look at the world.
Perhaps the best example of how we miss things is the egg yolk question. Everybody knows egg yolks are yellow. But the question’s phrasing puts our attention on selecting the correct verb, so we overlook an obvious piece of data and an even more obvious answer.
We can’t change how the brain works – at least not yet. Give science another 50 years and who knows what our brains will be doing! For now, we can become more aware of how our brain works, then pause from time to time to consider what we’re missing. This includes the data we’re unconsciously screening out as well as different sources of data to counterbalance what we expect to see.
Get in the habit of teasing your brain. You’ll be amazed at what you end up seeing that you didn’t see before.
Retweet this blog to find out how clever your friends and business associates are.
The Self Illusion: An Interview With Bruce Hood
Jonah Lehrer.
In 1920, after writing two novels with a conventional Victorian narrator (the kind that, like an omniscient God, views everything from above), Virginia Woolf announced in her diary: “I have finally arrived at some idea of a new form for a new novel.” Her new form would follow the flow of our consciousness, tracing the “flight of the mind” as it unfolds in time. “Only thoughts and feelings,” Woolf wrote to Katherine Mansfield, “no cups and tables.”
In 1920, after writing two novels with a conventional Victorian narrator (the kind that, like an omniscient God, views everything from above), Virginia Woolf announced in her diary: “I have finally arrived at some idea of a new form for a new novel.” Her new form would follow the flow of our consciousness, tracing the “flight of the mind” as it unfolds in time. “Only thoughts and feelings,” Woolf wrote to Katherine Mansfield, “no cups and tables.”
The mind, however, is not an easy thing to express. When Woolf looked inside herself, what she found was a consciousness that never stood still. Her thoughts flowed in a turbulent current, and every moment ushered in a new wave of sensation. Unlike the “old-fashioned novelists,” who treated our being like a static thing, Woolf’s mind was neither solid nor certain. Instead, it “was very erratic, very undependable—now to be found in a dusty road, now in a scrap of newspaper in the street, now in a daffodil in the sun.” At any given moment, she seemed to be scattered in a million little pieces. Her brain was barely bound together.
And yet, it was bound together. Her mind was made of fragments, but it never came undone. She knew that something kept us from disintegrating, at least most of the time. “I press to my centre,” Woolf wrote in her diary, “and there is something there.”
Woolf’s art was a search for whatever held us together. What she found was the self, “the essential thing.” Although the brain is just a loom of electric neurons and contradictory impulses, Woolf realized that the self makes us whole. It is the fragile source of our identity, the author of our consciousness. If the self didn’t exist, then we wouldn’t exist.
But one must never forget just how flimsy the self is. In her modernist novels, Woolf wanted to simultaneously affirm our existence and expose our ineffability, to show us that we are “like a butterfly’s wing…clamped together with bolts of iron.”
Bruce Hood, a psychologist at the University of Bristol, picks up where Woolf and the modernists left off. In his excellent new book, The Self Illusion, he seeks to understand how the singularity of the self emerges from the cacophony of mind and the mess of social life. Dr. Hood was kind enough to answer a few of my questions below:
LEHRER: The title of The Self Illusion is literal. You argue that the self – this entity at the center of our personal universe – is actually just a story, a “constructed narrative.” Could you explain what you mean?
HOOD: The best stories make sense. They follow a logical path where one thing leads to another and provide the most relevant details and signposts along the way so that you get a sense of continuity and cohesion. This is what writers refer to as the narrative arc – a beginning, middle and an end. If a sequence of events does not follow a narrative, then it is incoherent and fragmented so does not have meaning. Our brains think in stories. The same is true for the self and I use a distinction that William James drew between the self as “I” and “me.” Our consciousness of the self in the here and now is the “I” and most of the time, we experience this as being an integrated and coherent individual – a bit like the character in the story. The self which we tell others about, is autobiographical or the “me” which again is a coherent account of who we think we are based on past experiences, current events and aspirations for the future.
The neuroscience supports the claim that self is constructed. For example, Michael Gazzaniga demonstrated that spilt-brain patients presented with inconsistent visual information, would readily confabulate an explanation to reconcile information unconsciously processed with information that was conscious. They would make up a story. Likewise, Oliver Sacks famously reported various patients who could confabulate accounts to make sense of their impairments. Ramachandran describes patients who are paralyzed but deny they have a problem. These are all extreme clinical cases but the same is true of normal people. We can easily spot the inconsistencies in other people’s accounts of their self but we are less able to spot our own, and when those inconsistencies are made apparent by the consequences of our actions, we make the excuse, “I wasn’t myself last night” or “It was the wine talking!” Well, wine doesn’t talk and if you were not your self, then who were you and who was being you?
LEHRER: The fragmented nature of the self is very much a theme of modernist literature. (Nietzsche said it first: “My hypothesis is the subject as multiplicity,” he wrote in a terse summary of his philosophy. Virginia Woolf echoed Nietzsche, writing in her diary that we are “splinters and mosaics; not, as they used to hold, immaculate, monolithic, consistent wholes.”) In your book, you argue that modern neuroscience has confirmed the “bundle theory” of the self proposed by Hume. Do you think they have also confirmed these artistic intuitions about the self? If so, how has science demonstrated this? Are we really just a collection of “splinters and mosaics”?
HOOD: Yes, absolutely. When I was first asked to write this book, I really could not see what the revelation was all about. We had to be a multitude – a complex system of evolved functions. Neuroscientists spend their time trying to reverse engineer the brain by trying to figure out the different functions we evolved through natural selection. So far, we have found that the brain is clearly a complex of interacting systems all the way up from the senses to the conceptual machinery of the mind – the output of the brain. From the very moment that input from the environment triggers a sensory receptor to set off a nerve impulse that becomes a chain reaction, we are nothing more that an extremely complicated processing system that has evolved to create rich re-presentations of the world around us. We have no direct contact with reality because everything we experience is an abstracted version of reality that has been through the processing machinery of our brains to produce experience.
I think Nietzsche’s nihilism and Woolf’s depression could have been reflections of their intuitive understanding that the richness of experience must be made up of a multitude of hidden processes and that the core self must be an illusion – and maybe that upset them. But I don’t think appreciating that the self is an illusion is a bad thing. In fact, I think it is inescapable. My critics often dismiss my position as too reductionist or too materialist. Well, if the human condition it is not materialist, then an alternative good explanation must be non-materialist. Show me good evidence for souls and spirits and then I will be forced to change my view. But so far there has been no reliable evidence for souls, ghosts or supernatural entities that inhabit bodies. They are conspicuous by their absence. In contrast, we know that if you alter the physical state of the brain through a head injury, dementia or drugs, each of these changes our self. Whether it is through damage, disease or debauchery, we know that the self must be the output of the material brain.
LEHRER: If the self is an illusion, then why does it exist? Why do we bother telling a story about ourselves?
HOOD: For the same reason that our brains create a highly abstracted version of the world around us. It is bad enough that our brain is metabolically hogging most of our energy requirements, but it does this to reduce the workload to act. That’s the original reason why the brain evolved in the first place – to plan and control movements and keep track of the environment. It’s why living creatures that do not act or navigate around their environments do not have brains. So the brain generates maps and models on which to base current and future behaviors. Now the value of a map or a model is the extent to which it provides the most relevant useful information without overburdening you with too much detail.
The same can be said for the self. Whether it is the “I” of consciousness or the “me” of personal identity, both are summaries of the complex information that feeds into our consciousness. The self is an efficient way of having experience and interacting with the world. For example, imagine you ask me whether I would prefer vanilla or chocolate ice cream? I know I would like chocolate ice cream. Don’t ask me why, I just know. When I answer with chocolate, I have the seemingly obvious experience that my self made the decision. However, when you think about it, my decision covers a vast multitude of hidden processes, past experiences and cultural influences that would take too long to consider individually. Each one of them fed into that decision.
LEHRER: Let’s say the self is just a narrative. Who, then, is the narrator? Which part of me is writing the story that becomes me?
HOOD: This is the most interesting question and also the most difficult to answer because we are entering into the realms of consciousness. For example, only this morning as I was waking up, I was aware that I was gathering my thoughts together and I suddenly became fixated by this phrase, “gathering my thoughts.” I felt I could focus on my thoughts, turn them over in my mind and consider how I was able to do this. Who was doing the gathering and who was focusing? This was a compelling experience of the conscious self.
I would argue that while I had the very strong impression that I was gathering my thoughts together, you do have to question how did the thought to start this investigation begin? Certainly, most of us never bother to think about this, so I must have had an unconscious agenda that this would be an interesting exercise. Maybe it was your question that I read a few days ago or maybe this is a problem that has been ticking over in my brain for some time. It seemed like a story that I was playing out in my head to try and answer a question about how I was thinking. But unless you believe in a ghost in the machine, it is impossible to interrogate your own mind independently. In other words, the narrator and the audience are one and the same.
As the philosopher Gilbert Ryle pointed out, when it comes to the mind you cannot be both the hunter and the hunted. I think that he is saying that the brain creates both the mind and the experience of mind. So you can become aware of a thought, but you are not independent to that thought. Now that is a very unsatisfactory answer for most people because it simply does not accord with mental experience. We entertain thoughts. We consider options. We gather our thoughts together. We play out scenarios in our mind. However, unquestionable as that mental experience might seem to all of us, there can be no one inside our head considering the options. Otherwise, you would then have the problem of an infinite regress – who is inside their head, and so on, and so on.
LEHRER: I get the sense that not all of your colleagues agree with your deconstruction of the self. Some argue, in fact, that the self is a bit like a wristwatch. Just because a watch is a bundle of different parts doesn’t mean it is an illusion. How do you respond to these critiques?
HOOD: For me, an illusion is not what it seems and for most of us, we consider our self as some essential core of who we are. Most of us feel our self is at the center of our existence responding to everything around us – that notion of an integrated entity is what I am challenging, not the experience of self. Must of us, including myself have that experience but that does not make it real. For example, most us think that we see the world continuously throughout the waking day when in fact we only see a fraction of the world in front of us, and because the brain blanks out our visual experience every time we move our eyes in a process called saccadic suppression, we are effectively blind for at least 2 hrs of the day. This is why you cannot see your own eyes moving when you look in a mirror! So conscious experience is not a guarantee of what’s really true.
As for the comparison with a wristwatch…CLearly, it is composed of many parts and the sum of the parts is the wristwatch. However, a wristwatch is only a wristwatch by convention. An alien or a Neanderthal would just consider it to be some form of complex composite object. You could even use the wristwatch as a weapon to kill small animals. It’s a bizarre use of this object I grant you, but there is nothing inherent or essential to the watch that defines what it is. And even then, a microbe living on the watch face may not consider it an object. So a wristwatch is a wristwatch because of a recognized function and to some extent, a convention – both of which do not confer an independent reality to the mind that is considering it. It depends on how you look at it.
When people talk about the reality of the self as the culmination of its constituent parts, I think that they are falling for the trap of thinking that the self exists independently to its parts, which it doesn’t. In the book, I argue that because we have evolved as social animals, those around us construct a large part of our mental life that we experience as our self. We can see the influence of others but often fail to recognize how we too are shaped. I am not denying the role of genes and temperaments that we inherit from our biology. After all, children raised in the same environment can end up very different but even these intrinsic properties of who we are play out in a social world which defines us. If you think about it, many of the ways we describe each other, such as helpful, kind, generous, mean, rude or selfish can only make sense in the context of others. So those around us largely define who we are. I hope this book will remind us of this obvious point that we so easily forget.
Aventuras en la neurobiología conductual o Qué puede decirnos la neurobiología sobre la naturaleza humana
Vilayanur Ramachandran. (English).
Traducción express: Verónica Puertollano
Me interesan todos los aspectos de la mente humana, incluidos aquellos que se han considerado inefables o misteriosos. Mi forma de enfocar estos problemas es observar a los pacientes que han sufrido lesiones en una pequeña región del cerebro, una disciplina llamada neurología conductual, o últimamente, neurociencia cognitiva.
Permítanme hablarles del problema al que nos enfrentamos. El cerebro es una masa de gelatina de un kilogramo y medio, con la consistencia del tofu, lo puedes sostener en la palma de la mano y, sin embargo, puede contemplar la inmensidad del espacio y del tiempo y el significado del infinito y de la existencia. Puede formular preguntas como quién soy y de dónde vengo, preguntas sobre el amor, la estética y el arte, y todas ellas provienen de este trozo de gelatina. La pregunta es: ¿cómo sucede?
Cuando observamos la estructura del cerebro vemos que está formada por neuronas. Todo el mundo lo sabe hoy en día. Hay cien mil millones de estas células nerviosas. Cada una de estas células establecen entre 1.000 y 10.000 contactos con otras neuronas. Con esta información, se ha calculado que el número de estados cerebrales posibles, de permutaciones y combinaciones de la actividad del cerebro, supera el número de partículas elementales en el universo.
Seguir leyendo.
Traducción express: Verónica Puertollano
Me interesan todos los aspectos de la mente humana, incluidos aquellos que se han considerado inefables o misteriosos. Mi forma de enfocar estos problemas es observar a los pacientes que han sufrido lesiones en una pequeña región del cerebro, una disciplina llamada neurología conductual, o últimamente, neurociencia cognitiva.
Permítanme hablarles del problema al que nos enfrentamos. El cerebro es una masa de gelatina de un kilogramo y medio, con la consistencia del tofu, lo puedes sostener en la palma de la mano y, sin embargo, puede contemplar la inmensidad del espacio y del tiempo y el significado del infinito y de la existencia. Puede formular preguntas como quién soy y de dónde vengo, preguntas sobre el amor, la estética y el arte, y todas ellas provienen de este trozo de gelatina. La pregunta es: ¿cómo sucede?
Cuando observamos la estructura del cerebro vemos que está formada por neuronas. Todo el mundo lo sabe hoy en día. Hay cien mil millones de estas células nerviosas. Cada una de estas células establecen entre 1.000 y 10.000 contactos con otras neuronas. Con esta información, se ha calculado que el número de estados cerebrales posibles, de permutaciones y combinaciones de la actividad del cerebro, supera el número de partículas elementales en el universo.
Seguir leyendo.
Una vida intelectualmente activa y Alzheimer
César Tomé.
Referencia:
Landau, S., Marks, S., Mormino, E., Rabinovici, G., Oh, H., O'Neil, J., Wilson, R., & Jagust, W. (2012). Association of Lifetime Cognitive Engagement and Low -Amyloid Deposition Archives of Neurology DOI: 10.1001/archneurol.2011.2748
Un equipo de investigadores encabezado por Susan Landau, de la Universidad de California en Berkeley (EE.UU.), ha encontrado que personas sin síntomas de la enfermedad de Alzheimer y que a lo largo de su vida han realizado habitualmente actividades estimulantes desde el punto de vista cognitivo tienen menos depósitos de beta amiloide, el signo patológico de la enfermedad. Los resultados se publican en Archives of Neurology.
Antes de entrar en detalle, me permito sugerir al lector interesado esta introducción al estado de la cuestión para poder poner en contexto lo que sigue: La incomoda verdad sobre la enfermedad de Alzheimer.
Las placas de beta amiloide son el signo distintivo de la enfermedad de Alzheimer. Ello no significa que sean la causa, pero sea cual sea ésta, existe una correlación bien establecida entre la presencia de placas de de beta amiloide y Alzheimer. La aparición de estas placas puede estar influenciada también por los genes y el simple envejecimiento; démonos cuenta de que un tercio de las personas de más de 60 años tienen depósitos de amiloide en sus encéfalos. En cualquier caso, parece razonable suponer que cualquier cosa que retrase la aparición de las placas (no que las destruya a posteriori, véase la introducción) también podría retrasar la aparición del Alzheimer.
Investigaciones anteriores han venido sugiriendo que dedicarse a actividades estimulantes mentalmente como leer, escribir, los juegos de tablero o el baile de salón, podrían ser beneficiosas a la hora de retrasar o, incluso, prevenir, la aparición del Alzheimer. Sin embargo, la beta amiloide comienza a acumularse muchos años antes de la aparición de los síntomas. Por ello, a día de hoy, cuando empiezan a aparecer síntomas es poco lo que se pueda hacer para parar la progresión de la enfermedad (véase la introducción). Así pues, la prevención debe hacerse mucho antes y con esta idea en mente es con la que Landau et al. han diseñado su experimento.
Los investigadores pidieron a 65 adultos cognitivamente sanos de más de 60 años (edad media 76,1) que evaluasen la frecuencia con la que habían participado en actividades estimulantes mentalmente como ir a la biblioteca, leer libros o periódicos, escribir cartas o correos electrónicos. Las preguntas se centraban en varios aspectos de sus vidas desde los 6 años en adelante.
Estos voluntarios participaron durante más de 5 años en evaluaciones neuropsicológicas para comprobar la memoria y otras funciones cognitivas, siendo sometidos a escáneres PET (tomografía por emisión de positrones, por sus siglas en inglés) regularmente, usando como marcador el Compuesto B de Pittsburgh (con carbono-11 radiactivo), un análogo fluorescente de la tioflavina T que permite visualizar la presencia de beta amiloide. Como controles se usaron los resultados obtenidos con 10 pacientes diagnosticados con enfermedad de Alzheimer y 11 veinteañeros sanos.
Los investigadores encontraron una correlación estadísticamente significativa entre niveles mayores de actividad cognitiva a lo largo de toda la vida y menores niveles de beta amiloide, tal y como se presenta en los escáneres (este es un matiz no menor). Cuando analizaron el impacto de otros factores tales como el estado de la memoria, la actividad física, la capacidad nemotécnica autoevaluada, el nivel de educación y el sexo, encontraron que la correlación entre una vida cognitivamente activa y las placas de beta amiloide era independiente de todo lo anterior.
Es muy llamativo que no se encontrase una correlación fuerte entre la cantidad de placas de beta amiloide y la actividad cognitiva en ese momento. Esto es, parece que tiene mucho más efecto haber sido cognitivamente activo durante toda una vida que empezar a serlo en la vejez. Esto no implica que se nieguen los posibles efectos beneficiosos de ser cognitivamente activo en la vejez.
Este descubrimiento hace que se mire de distinta forma a lo que significa una vida cognitivamente activa para el cerebro. Más que simplemente aportar una resistencia frente al Alzheimer, las actividades que estimulan el cerebro podrían estar afectando a un proceso patológico primario de la enfermedad. Lo que sugiere que las terapias cognitivas deberían aplicarse mucho antes de que los síntomas aparezcan.
Si llegados a este punto al lector le queda la sensación de que andamos a ciegas con el Alzheimer, no se preocupe, es la sensación correcta.
Referencia:
Landau, S., Marks, S., Mormino, E., Rabinovici, G., Oh, H., O'Neil, J., Wilson, R., & Jagust, W. (2012). Association of Lifetime Cognitive Engagement and Low -Amyloid Deposition Archives of Neurology DOI: 10.1001/archneurol.2011.2748
Vedadero o falso: La belleza es verdad - True or False: Beauty Is Truth
Judith Rich Harris. (Español - English).
«La belleza es verdad y la verdad belleza», dijo John Keats. ¿Pero qué sabía él? Keats era poeta, no científico.
En el mundo que habitan los científicos, la verdad no siempre es bella o elegante, aunque pueda ser profunda. De hecho, tengo la impresión de que a mayor profundidad en la explicación, menor probabilidad de que sea bella o elegante.
Hace algunos años, el psicólogo B. F. Skinner propuso una explicación elegante de "la conducta de los organismos", basada en la idea de que recompensar una respuesta —él lo llamaba refuerzo— elevaba la probabilidad de que se volviera a producir la misma respuesta en el futuro. La teoría falló, no porque fuera falsa (el refuerzo sí eleva por lo general la probabilidad de una respuesta), sino porque era demasiado sencilla. Ignoraba los componentes innatos de la conducta. No podía manejar siquiera toda la conducta aprendida. Gran parte de la conducta se adquiere o se moldea por la experiencia, pero no necesariamente a través del refuerzo. Los organismos aprenden diferentes cosas de distintas maneras.
La teoría de la mente modular es otra forma de explicar la conducta —en particular, la conducta humana—. La idea es que la mente humana está hecha de una serie de componentes especializados, llamados a menudo módulos, que trabajan de manera más o menos independiente. Estos módulos recogen diferentes tipos de información del entorno y la procesan de distintas maneras. Emiten diversas órdenes —órdenes en conflicto, a veces—. No es una teoría elegante; al contrario, es la clase de cosa que haría a Occam sacar inmediatamente su navaja. Pero no deberíamos juzgar las teorías pidiéndoles que compitan en un concurso de belleza. Deberíamos pedirles si pueden explicar más, o mejor, la realidad de lo que fueron capaces las teorías previas.
La teoría modular puede explicar, por ejemplo, el curioso efecto de los daños cerebrales. Algunas capacidades pueden perderse mientras que otras pueden salvarse, difiriendo los patrones de un paciente a otro. Más concretamente, la teoría modular puede explicar algunos de los misterios de la vida diaria. Por ejemplo el conflicto entre grupos. Los Montesco y los Capuleto se odiaban entre ellos, sin embargo Romeo (un Montesco) se enamoró de Julieta (una Capuleto). ¿Cómo puedes amar a un miembro de un grupo, y sin embargo seguir odiando a ese grupo? La respuesta es que están involucrados dos módulos mentales separados. Uno trata con la grupalidad (identificación con el grupo de pertenencia y la hostilidad hacia otros grupos), y el otro se especializa en las relaciones personales. Ambos módulos recogen información sobre la gente, pero hacen diferentes cosas con los datos. El módulo de la grupalidad traza líneas de categorías y computa las medias dentro de las categorías; el resultado se llama estereotipo. El módulo de las relaciones recoge y almacena información detallada sobre individuos específicos. Siente placer recogiendo esta información, por eso es por lo que nos encanta cotillear, leer novelas y biografías, y ver a los candidatos políticos desatados en nuestras pantallas de televisión. Nadie tiene que darnos comida o dinero para hacer estas cosas, ni siquiera darnos una palmadita en la espalda, porque recoger esos datos es la propia recompensa.
La teoría de la mente modular no es bella ni elegante. Pero sin ser poetisa, valoro la verdad por encima de la belleza.»
***
"Beauty is truth, truth beauty," said John Keats. But what did he know? Keats was a poet, not a scientist.
In the world that scientists inhabit, truth is not always beautiful or elegant, though it may be deep. In fact, it's my impression that the deeper an explanation goes, the less likely it is to be beautiful or elegant.
Some years ago, the psychologist B. F. Skinner proposed an elegant explanation of "the behavior of organisms," based on the idea that rewarding a response—he called it reinforcement—increases the probability that the same response will occur again in the future. The theory failed, not because it was false (reinforcement generally does increase the probability of a response) but because it was too simple. It ignored innate components of behavior. It couldn't even handle all learned behavior. Much behavior is acquired or shaped through experience, but not necessarily by means of reinforcement. Organisms learn different things in different ways.
The theory of the modular mind is another way of explaining behavior—in particular, human behavior. The idea is that the human mind is made up of a number of specialized components, often called modules, working more or less independently. These modules collect different kinds of information from the environment and process it in different ways. They issue different commands—occasionally, conflicting commands. It's not an elegant theory; on the contrary, it's the sort of thing that would make Occam whip out his razor. But we shouldn’t judge theories by asking them to compete in a beauty pageant. We should ask whether they can explain more, or explain better, than previous theories were able to do.
The modular theory can explain, for example, the curious effects of brain injuries. Some abilities may be lost while others are spared, with the pattern differing from one patient to another.
More to the point, the modular theory can explain some of the puzzles of everyday life. Consider intergroup conflict. The Montagues and the Capulets hated each other; yet Romeo (a Montague) fell in love with Juliet (a Capulet). How can you love a member of a group, yet go on hating that group? The answer is that two separate mental modules are involved. One deals with groupness (identification with one's group and hostility toward other groups), the other specializes in personal relationships. Both modules collect information about people, but they do different things with the data. The groupness module draws category lines and computes averages within categories; the result is called a stereotype. The relationship module collects and stores detailed information about specific individuals. It takes pleasure in collecting this information, which is why we love to gossip, read novels and biographies, and watch political candidates unravel on our TV screens. No one has to give us food or money to get us to do these things, or even administer a pat on the back, because collecting the data is its own reward.
The theory of the modular mind is not beautiful or elegant. But not being a poet, I prize truth above beauty.
Patricia Churchland: “La neurociencia no tiene la respuesta para problemas sociales difíciles como pensiones o seguridad social”
Patricia Smith Churchland es una filósofa canadiense y la representante más conocida de la “Neurofilosofía”, “el estudio interdisciplinario de la filosofía y la neurociencia”, junto con su marido Paul Churchland. Su último libro esBrain-trust. What neuroscience tell us about morality. De momento, ninguno de sus libros ha sido traducido al español. Recientemente estuvo en Madrid, donde ofreció una charla sobrecreatividad en el contexto de la neurociencia. También tuvo tiempo para conceder esta entrevista a Cultura 3.0:
¿Por qué cree que hay que estudiar el cerebro para entender la filosofía? ¿Cómo puede ayuar la filosofía a la ciencia? ¿Y por qué todavía se resisten algunos filósofos?
Buena pregunta. En primer lugar, necesitamos entender el cerebro para entender cómo es la mente: el aprendizaje, la memoria, la consciencia, la percepción, y la toma de decisiones. Estas son cosas que hacen todos los cerebros. Parte de lo que hemos aprendido de la neurociencia durante los últimos 40 años es que, una vez que tenemos una imagen clara de lo que está ocurriendo a nivel psicológico y neurobiológico en la percepción, o en la toma de decisiones, esto no coincide con lo que piensan normalmente los filósofos. La epistemología es una parte central de la filosofía, tiene que ver con la naturaleza del conocimiento. Y es el cerebro el que piensa cosas, es el cerebro el que recuerda…
Una de las cosas más sorprendentes es que la inteligencia resulta muy sensible a la información, tanto interna como externa, que depende de procesos inconscientes. Una de las cuestiones es saber cómo funcionan los procesos inconscientes y cómo es que terminan produciendo algo tan complejo como el hecho de que sea capaz de reconocer tu cara, de recordar algo que me ha ocurrido durante el vuelo de esta mañana, etc. Si la epistemología realmente trata de la naturaleza del conocimiento, y no parece que existan verdades a priori, que nadie es capaz de explicar, y si la evolución no se las ha podido ingeniar para introducir verdades a priori en nuestros cerebros, entonces comprender cómo llegamos a comprender y recordar, cómo funcionan los diferentes sistemas de memoria (que son distinguibles y separables) es algo que no podemos hacer desde el sofá.
Usted ayudó a crear un laboratorio de “filosofía experimental” en la universidad de California, San Diego. ¿Qué tiene esto en común con el movimiento actual de “filosofía experimental” practicado por filósofos como Joshua Knobe y Shaun Nichols?
Nuestro laboratorio de filosofía experimental empezó hace unos 25 años. En realidad, estábamos interesados en los resultados de los experimentos psicológicos y neurobiológicos y en lo que podrían decirnos sobre la conciencia y sobre cómo representamos el yo, la naturaleza del conocimiento, la memoria, etcétera. Lo que Knobe y Nichols están haciendo realmente es sociolinguística. Lo que quieren saber es por qué emplean las personas determinadas palabras, el tipo de supuestos tienen y qué tipo de inferencias hacen, y esto puede ser algo interesante. Pero nosotros estábamos más centrados en cosas como la percepción y la naturaleza de la toma de decisiones, y en el modo en que los distintos sistemas de memoria podrían interactuar para producir un todo coherente. Lo que realemente estábamos preguntando no es cómo piensan las personas, sino cómo funcionan los cerebros.
¿Qué dice la neurociencia sobre el libre albedrío? ¿Podemos ser realmente responsables sin creer en el libre albedrío?
Depende de lo que entiendas por libre albedrío. Si por libre albedrío entiendes que actúas de una forma controlada de modo que eres capaz de reconocer las consecuencias de tus intenciones, entonces, claro que tenemos libre albedrío. Si por libre albedrío entiendes una especie de creación causada desde la nada por un alma no fisica, entonces no, no tenemos una cosa así. Pero no creo que la mayor parte de las personas piensen así. Lo más importante que ha hecho la neurociencia es investigar en gran detalle las diferencias que hay entre un cerebro que parece controlado y un cerebro que perdido el control. En este aspecto hemos aprendido algo acerca de las diferencias que hay entre alguien que es adicto y alguien que no es adicto, alguien que es adicto a la cocaína, por ejemplo.
El tema de la responsabilidad surge en un contexto social y el contexto social tiene que ver básicamente con mantener la paz, es decir, evitar que las personas hagan cosas que podrían resultar dañinas para los demás, y castigiar a aquellas personas que hayan hecho cosas dañinas. En buena medida este es un sistema eficaz, ya que si carecemos de un sistema capaz de determinar la intención, entonces lo que ocurriría es que la sociedad se volvería loca. Si decides abrir las puertas de las cárceles y liberar a todo el mundo, entonces las personas se tomarán la justicia por sus propias manos. En consecuencia, por supuesto que tenemos que preservar el sistema de la responsabilidad y tenemos que hacerlo del modo más juicioso posible. Además, creo que en general la mayoría de las juridiscicciones que poseen un sistema de justicia criminal lo hacen bastante bien.
Algunos filósofos no están de acuerdo con el reduccionismo fisicalista y hablan incluso de “fundamentalismo del cerebro”. ¿Cómo concibe la neurofilosofía el problema del reduccionismo y el fisicalismo?
Depende de qué entiendas por reducción. Algunas personas entienden que si reducimos A a B, eso significa que A no es real. Esto es una estupidez. Lo que queremos decir por reducción es que A es un fenómeno de cierto nivel de organización. Reducirlo significa simplemente que encontramos una explicación a un nivel más bajo. Las propiedades químicas del agua pueden explicar las propiedades del agua en términos de oxígeno e hidrógeno y el modo en que funciona el sistema al completo. Cuando hablamos sobre reducción, por ejemplo, cuando hablamos sobre reducir la conciencia a procesos del cerebro, lo que queremos decir es simplemente que la conciencia es un fenónmeno, un fenómeno real que se correlaciona con actividades del cerebro.
A largo plazo, es razonable predecir que seremos capaces de explicar estos problemas en términos de redes de neuronas y cómo interactúan. Ahora bien, ya que hablabas antes de la resistencia de muchos filósofos a la neurofilosofía; muchos filósofos están resistiéndose de un modo realmente desafortunado, esto es, distorsionando nuestra posición para que parezca ridícula. Esta no es una manera muy buena de sugerir un punto de vista alternativo sobre la naturaleza de la mente. Los Churchland no pensamos que no exista la conciencia. Nunca hemos dicho que la consciencia no exista. De hecho, creemos que la consciencia es real y que probablemente se trata de una mezcla de distintos fenómenos. A largo plazo, haremos progresos en la explicación de las bases neurobiológicas de la conciencia sensorio perceptiva.
Algunos filósofos se sienten amenazados ante la idea de que, tal vez, tengan que saber algo. Desafortunadamente la consciencia es un sistema biológico que no se puede descomponer. No puedes explicar la esquizofrenia descomponiéndola. No puedes explicar las diferencias entre dormir y estar despierto descomponiendo sus elementos. Ahí se da un fenómeno real. Si no le prestas atención, perfecto, pero no digas que tienes una “aproximación” diferente que es a priori y mejor.
¿La llamada “falacia naturalista” es realmente una falacia?
Sería estúpido decir algo como que, dado que en términos generales los hombres son más grandes que las mujeres, entonces las mujeres deberían subordinarse a los hombres. Esto no sería una buena idea. No tienes que pasar necesariamente de lo que es a lo que debe ser. Por otra parte, está claro que el cerebro de los mamíferos está organizado de tal modo que el cuidado de los hijos y otros miembros del grupo resulta ser un valor fundamental. Podríamos decir, ¿pero realmente debemos cuidarlos? Bueno, no. Pero tu cerebro está organizado de tal modo que es problemático no hacerlo. Debes hacerlo. Es el caso que valoramos estas cosas y, en consecuencia, las debemos hacer.
Pero el problema…es interesante que los filósofos se hayan resistido a la neurofilosofía, como decías antes. Creo que las nuevas generaciones reconocen que la filosofía analítica de los últimos 40 años está cambiando. No quieren pasar su tiempo trabajando en problemas que no van a ningún sitio.
¿Qué significa la expresión “valores basados en el cerebro”? Desde una perspectiva neurobiológica y neurocientífica, ¿Qué hace que unas teorías morales sean más plausibles que otras?
El cableado del cerebro de los mamíferos hace que el cuidado de los niños sea un poderoso incentivo, especialmente para las hembras (pero también para otros machos animales). Por ejemplo, tener comunas donde dejas a tus hijos lejos de los padres y son criados en común, probablemente es una buena idea. Probablemente esto es bueno para los niños y para los padres. Este podría ser un ejemplo. Pero no pasa lo mismo con muchos otros problemas, nuestros problemas morales serios, como los impuestos por herencias. Antes hablábamos sobre la muerte y varios problemas sanitarios serios como las pensiones y la seguridad social. Estos son problemas realmente difíciles y la neuroencia no te va a dar la respuesta. Al final, las personas tendrán que reunirse y decir lo que piensan hacer, porque pensamos en definitivas cuentas que esto tiene más valor que esto otro. Tendremos que negociar. Algunos como Sam Harris sugieren, o parecen sugerir, que la neurociencia nos dirá cómo resolver estos problemas morales. Desearía que así fuera. Pero no lo creo.
¿Puede ayudar la neuroética a desarrollar una ética universal? ¿Estás de acuerdo en que el desafío moral más importante hoy en día es descubrir modos más eficientes de extender las obligaciones entre los parientes cercanos y los camaradas étnicos hacia todos los individuos y los grupos, haciendo que las relaciones genéticas cada vez sean menos reconocibles?
No lo sé. Es algo sobre lo que he pensado mucho. No creo que la neurociencia esté particularmente bien situada para hacer algo a este respecto. Creo que Steve Pinker en su libro más reciente sostiene el argumento general de que ciertos tipos de instituciones son más propensas para fomentar ese tipo de comportamiento, pero sigue siendo un asunto difícil, porque las personas se preocupan más por aquellas a las que están unidas y conocen que por aquellas que no conocen. Cómo podemos superar esto, y qué precio hay que pagar para hacerlo, no lo sé.
En realidad, creo que la biología puede servirnos para verlo de este modo: los padres aman tanto a sus hijos que están dispuestos a hacer casi cualquier cosa por ellos, más de lo que estarían dispuestos a hacer por cualquier niño de cualquier otra parte del planeta. Si niego el cuidado a mis propios hijos a favor de 20 niños al otro lado del planeta, la mayoría de las personas pensarán que esto es moralmente inaceptable. Y creo que esto es correcto. Esto nos dice algo sobre un valor que es fundamental en los mamíferos, en los mamíferos homo, es decir, el hecho de que tenemos un fuerte apego a los niños y los parientes. Pero a veces tenemos que superarlo. Y lo hacemos en cosas como nombrar a personas para posiciones independientemente de que sean nuestros hermanos. Intentamos organizar nuestras instituciones de forma que esto no suceda. Una de las cosas buenas de librarse de los reyes es que no tenemos ya toda esa línea familiar de reyes, de tíos y hermanos, y demás parentela…
Suscribirse a:
Entradas (Atom)