You are browsing the archive for 2013 May.

Bacterial apocalypse and the Cold War: the phage connection

15/05/2013 in Night science

The arms race turned against us in 2008. That year, an Indian citizen living in Stockholm was suffering from urinary tract pain, and even though he was treated with antibiotics bacteria seemed not to have any difficulties in resuming their growing. Later analysis determined that the bacterium, a Klebsiella pneumoniae strain, had acquired antibiotic resistance to b-lactamases thanks to a new enzyme activity, the so-called NMD-1 (New Delhi metallo-b-lactamase-1). This enzyme, present in gram-negative bacteria and transferable via plasmid, can disable carbapenems, a potent group of antibiotics that is normally used as the last defense line against highly resistant pathogens. Eventually this red line has gone down.

A high use of antibiotics leads to an increase of drug-resistan bacteria. It is interesting to highlight Spain position.

A high use of antibiotics leads to an increase in drug-resistant bacteria. It is interesting to highlight Spain's position.

Antibiotic resistance is not a new issue, but the main problem is that it skyrockets day by day, as can be extracted from Mac Sprenger’s words, the ECDC (European Center for Disease Control) Director, during the European Antibiotic Awareness Day event in the European Parliament: “Antibiotic resistance remains a serious threat to patient safety, reducing options for treatment and increasing lengths of hospital stay, as well as patient morbidity and mortality”, and from which it seems there is no light at the end of the tunnel: “Notwithstanding, we are seeing increasing multi-drug resistance and the emergence of resistance to last-line antibiotics in European hospitals which we must take urgent action to address.”. For example, only in the European Union 400.000 of patients suffering this kind of infections are reported every year.

How have we ended up in this situation? How have these resistances appeared? This is an evolution phenomenon, but instead of being produced by natural selection they have been supported by an artificial selection since patients and (especially) doctors have been the ones to blame for forwarding this outcome. As anyone with even the most rudimentary understanding of Darwinian processes knows, the use of antibiotics results in a selection process whereby hardy and drug-resistant microbes survive and breed; they’re simply adapting. When we take antibiotics we attack bacteria, either by not letting them to synthesize their protector wall (b-lactamases), inhibiting their protein synthesis capability or aiming other aspects of their physiology. But they can counterattack. For example, some mutations in their genomes as well as the up taking of genes from outside can help them to face powerful antibiotics. Every time we follow this therapy we eliminate the major part of the bacteria, however some survive to this event due to resistance acquisition. Think of a bacterium that has survived several times to these events: now it is almost invincible. This is a hallmark for the common nosocomial diseases (diseases that have contracted inside a hospital).

There are a huge number of difficult-to-eradicate pathogens like multi-drug resistant tuberculosis (MDR-TB), Clostridium difficile, methicillin-resistant Staphylococcus aureus (MRSA) and more. Such is the problem that a new classification for these pathogens has recently (2011) been published. In the next table you can see it.

Table with non-susceptibility classification and comments for MDR (multidrug-resistant), XDR (extensively drug-resistant) and PDR (pandrug-resistant) bacteria.

Classification

Non-susceptibility to

Comments

MDR

At least 1 agent in 3 or more microbial categories

Dangerous

XDR

At least 1 agent in all microbial categories except 2 categories

Extremely dangerous

PDR

All agents in all antimicrobial categories

Apocalypse (good as a film plot)

 

Bacteria viruses can be appreciate easily in agar plates with previously grown bacteria.

Bacteria viruses can be appreciate easily as cell lysates in agar plates where bacteria have grown.

Increasing levels of antibiotic-resistant bacterial infections are now driving demand for novel therapeutic approaches. In cases where antibiotic options are limited because of a deficit in their development or nonexistent, the pressure for new agents is greatest. Among all the possible solution (new antibiotics, mixed therapies and so on) we will focus in this article on the administration of killing-bacteria viruses, also known as bacteriophages. Get ready for a curious story in the old-fashion “the enemies of my enemy are my friends”.

At the beginning (1920s) bacteriophages were sold at the pharmacies. Picture's copyright belongs to Dr James Soothill.

In the beginning (1920s) bacteriophages were sold at pharmacies. Picture's copyright belongs to Dr James Soothill.

Nowadays gene therapy is something we usually hear about and it involves a highly-specific treatment through unharmful viruses, so it also seems very rational to try to use bacteria viruses to eradicate pathogens, then why is this field not so popular? Let me tell you this fascinating story. Bacteriophages were discovered at the beginning of the 20th century by Frederick Twort and Felix d'Hérelle and since that moment a lot of research was focused on its application to treat microbial infection. Despite the apparent early successes and widespread application, these users did not understand the nature of these agents and their efficacy remained quite controversial. However, after the discovery of the antibiotics in 1941 the most advanced Western countries changed their mind: they will exploit this new source and put aside phage therapy, which was henceforth confined to Eastern countries that belonged to the former Soviet Union. World War II and the later Cold War did not do anything else but increasing this gap, this isolation between an antibiotic-based Western and phage-based Eastern (for sure they also used antibiotics, but phage use was very common) world. Eventually the possible use of bacteriophages to treat patients with bacterial infection was forgotten in the Western. And now, more than 60 years later we have seen how our antibiotic-based medicine has almost collapsed and the Western world will need the knowledge and help of countries like Russia or Georgia for the application of this very useful treatment.

Phage therapy can be very effective in certain conditions and has several advantages over antibiotics. For example, they do not develop secondary resistance, which is very common in antibiotics, or that they search for the specific bacteria and once they have destroyed them they do not reproduce anymore. Similarly to antibiotics, bacteria can also develop resistance to phages but it is a lot easier to generate new phages than new antibiotics. As bacteria evolve resistance, the relevant phages naturally evolve alongside so we can take advantage of their own arms race. When a "super bacterium" appears, then there is a "super phage" that can already attack it. Of course there are some disadvantages, like the necessity of finding a specific phage for the pathogen strain or the releasing of endotoxins by bacteria when there are being attacked.

 

Bacteriophages in action: thousands leaving host cell. Source: BBC news.

Bacteriophages in action: thousands leaving host cell. Source: BBC news.

Will phage uptake be a common therapy in the Western in a few years? This is difficult to foresee. Anyway, what is clear is that we have discovered (again!) a new way to eradicate the most lethal pathogens. We are likely to see its insertion in medicine as time goes by. Several results have demonstrated so far its effectiveness, but always combined with antibiotics.

So please, remember the take-home message about Darwinian evolution and (1) do not auto-medicate and (2) if you are about to use phage therapy ask for antibiotics too! :)

 

Further readings

[Phage therapy general info] http://en.wikipedia.org/wiki/Phage_therapy

[Issue tackled by BBC] http://www.bbc.co.uk/news/health-21799534

[Resistance classification] Magiorakos et al. (2012) Clin Microbiol Infect 18: 268–281

[More info about NDM-1] Lancet Infect Dis 2010; 10: 597

[Comments on phage therapy use] J Bone Joint Surg Am. 2013;95:e11(1-2)

[WHO antibiotic resistance webpage] http://www.who.int/mediacentre/factsheets/fs194/en/

[Straightforward article about bacteriophage therapy for treating wounds] Seth A.K. et al. (2013) Plastic and Reconstructive Surgery, 131:225-234

Rinocerontes extintos y cacerías reales

08/05/2013 in Night science

Desde hace unos días seguro que muchos de vosotros habéis visto mensajes por Facebook, Twitter y demás que hacen referencia a la extinción del rinoceronte negro. De hecho, mucha gente ha descubierto su existencia al hacerse eco de la triste noticia y no ha dejado pasar el momento para plasmar su rabia e impotencia ante este hecho tan fatídico. Tal es la repercusión que se hicieron las redes sociales que algunos medios de comunicación no tardaron en hacer noticia.

Un ejemplo de las imágenes que han circulado por la red en los últimos días.

Pero tras contrastar la información difundida la noticia es más triste de lo que realmente parece: si consultamos la lista roja de La Unión Internacional para la Conservación de la Naturaleza (IUCN Red List) el rinoceronte negro se sitúa en la categoría Critically Endangered (CR), que es la máxima categoría de riesgo por debajo de la propia extinción. Sin embargo, de entre las cuatro subespecies reconocidas por la IUCN hay una, Diceros bicornis longipes, se declaró oficialmente extinta en 2011. Es decir, durante dos años dicha extinción ha pasado completamente desapercibida, tanto entre la gente que comentaba cabreada el acontecimiento como en los medios de comunicación que recogieron su testigo.

Pero para rizar el rizo aún más, a rebufo de los rumores sobre la supuesta extinción del rinoceronte negro ha aparecido esta foto en las redes sociales:

¿Reconocéis al segundo por la izquierda y su firma? Efectivamente, es Mr. Campechano.

Si bien la foto no sorprende dadas las aficiones manifestadas por Juan Carlos de Borbón en los últimos tiempos (aunque ésta y muchas otras veces no haya salido a pedir perdón), lo cierto es que el ejemplar de rinoceronte asesinado no es un Diceros bicornis (rinoceronte negro) como se afirma, sino un Ceratotherium simum, esto es, un rinoceronte blanco. Éste es reconocible por su cuerpo compacto, abultamiento tras la nuca, cráneo grande y alargado, pero sobre todo por la forma de la boca, con labios anchos y rectos que le permiten alimentarse de pastos y matojos, supliendo la falta de incisivos. El negro, en cambio, es más pequeño, de cráneo más reducido y con la boca acabada en punta, alimentándose de arbustos y hojas bajas de árboles. Esto permite la coexistencia de ambas especies en un mismo hábitat sin competir por los mismos recursos.

El caso es que tanto los rinocerontes blancos como los negros son codiciados por los cazadores furtivos y, si bien las poblaciones de Ceratotherium simum se han recuperado en los últimos años superando los 20.000 ejemplares en 2011 y tiene la categoría de casi amenazado (Near Threatened), la subespecie norteña –recientes investigaciones la consideran otra especie–, Ceratotherium simum cottoni, tiene la categoría de CR.

Es más, de las nueve subespecies de rinocerótidos que había en los albores del siglo XXI siete están amenazadas, de las cuales cinco se consideran en peligro crítico de extinción, y una ya está extinta. Es triste saber que esta última que tanta repercusión ha tenido en los últimos días desapareciese de forma tan desapercibida, pero más penoso es saber que es cuestión de años o décadas a otras cinco les llegue el mismo destino. Tal vez si los países invirtiesen los recursos necesarios para su conservación en lugar de enviar a sus máximos representantes a cazarlos tendrían una oportunidad.

Madre e hijo de rinoceronte de Sumatra (Dicerorhinus sumatrensis). La cría es la cuarta en nacer en cautividad en más de un siglo de registro. Se cree que quedan menos de 250 individuos en la naturaleza. Si la caza furtiva persiste puede que en menos de una década se hayan extinguido todas las poblaciones salvajes. Este pequeño puede que llegar a ser el último representante de un género que se remonta a más de 25 millones de años de edad y que está estrechamente emparentado con los rinocerontes que nuestros antepasados dibujaban en las paredes de las cuevas.

Origen, evolución y función de la música. El papel de la disonancia cognitiva

05/05/2013 in Night science

A poet’s duty is to try to mend
The edges Split between the soul and body
The talent’s needle. And only voice is thread.

Joseph Brodsky

La música es un misterio. Cualquier humano es consciente, en uno u otro sentido, de su existencia y de su importancia, pero nadie sabe por qué y ni mucho menos cuándo surgió, o cuál es su objetivo. Darwin escribió en uno de sus libros [1] la siguiente frase “(music) must be ranked amongst the most mysterious (abilities) with which (man) is endowed”.  Y a pesar de que hay autores que defienden que la música es un subproducto de la psique humana y que no tiene valor adaptativo, otros concluyen que ésta sí ha tenido (y tiene) gran relevancia en la evolución humana, basándose principalmente en argumentos como la universalidad de la misma en toda las culturas conocidas.

Beethoven dijo: "La música constituye una revelación más alta que ninguna filosofía"

Así pues, ¿cuándo ha podido surgir la música?  Es una pregunta cuya respuesta es de muy difícil solución puesto que estamos hablando de un ente más abstracto que otras disciplinas artísticas como pueden ser la pintura o las esculturas. De estas últimas tenemos evidencias físicas que nos pueden indicar su antigüedad, pero con la música es totalmente diferente ya que no contamos con casi registros escritos antes del Códice Calixtino (situado en la Catedral de Santiago de Compostela) en lo que es la música europea, y siguiendo las hipótesis más aceptadas actualmente, la música tendría un origen cotemporal con el lenguaje humano, tema que vamos a afrontar en un momento.

¿Y qué podemos decir sobre su utilidad?  Dentro de los instintos básicos del hombre la música, o mejor dicho, la armonía parece tener repercusiones desde muy temprana edad. Se ha confirmado que a bebés de unos 4 meses de edad les gustan más los sonidos consonantes que los disonantes induciéndonos a pensar que esta capacidad de distinción es un carácter innato. De hecho, se tiene la hipótesis de que esto ha evolucionado de esta forma puesto que en ocasiones de estrés, miedo o angustia, la voz humana suena de forma mucho más discordante y nosotros la percibimos como algo desagradable, algo que pudo estar ya presente en los albores de nuestra especie. Gradualmente, parece ser que la evolución fue puliendo la “musicalidad” de nuestra voz para hacernos capaces de crear y percibir una variedad mucho mayor de tonos.

Sin embargo, esta característica por sí sola no es capaz de explicar la tremenda importancia (de sobra contrastada) que tiene la música en nuestras vidas diarias, y es aquí donde entramos en terrenos más teóricos y “etéreos”. La hipótesis sobre la que me centraré en el resto del texto es una entre una gran cantidad, y desde luego no voy a afirmar que sea totalmente cierta aunque lo cierto sí que es bastante atractiva. Además, cuenta con cierto apoyo experimental que comentaré al final por lo que, al menos en parte, podemos darle algo de veracidad. Podéis encontrar una magnífica revisión de estas ideas y de parte de lo comentado arriba en [2] y [3]

Antes de entrar en materia y entender de qué manera ha participado la música en la evolución humana, es necesario hacer un pequeño repaso de algunos conceptos que se manejan en este marco teórico y conceptual de la mente. Ésta está dividida en cuatro mecanismos fundamentales: los conceptos, que operan como modelos internos sobre objetos y situaciones; los instintos, mecanismos de supervivencia ancestrales a los mecanismos de los conceptos, y que miden parámetros vitales importantes para el correcto funcionamiento y la supervivencia; las emociones, definido aquí como las señales neurales que conectan las regiones instintivas y conceptuales del cerebro; y el comportamiento, que son las acciones que se trasladan al mundo exterior o interior de la mente tras un periodo de comprensión. Estos cuatro mecanismos básicos o fundamentales son los que posibilitan otros más complejos como la intuición, la imaginación, la conciencia o las emociones estéticas, de gran importancia en el tema que estamos tratando.

Para que haya una comprensión del entorno, la mente debe percibir objetos y asociarles modelos conceptuales creados por nuestra mente. Sin embargo, cuando nos enfrentamos a situaciones ligeramente diferentes existe el problema de asociar esos modelos de concepto a los nuevos objetos que estamos observando, lo cual presenta graves dificultades en el campo de la inteligencia artificial, por ejemplo. Lo que hace nuestra mente es modificar los conceptos internos para que puedan encajar los objetos de situaciones determinadas, mecanismo fundamental denominado instinto de conocimiento, o knowledge instinct (KI) en inglés. Se podría decir que el conocimiento es la medida de correspondencia entre nuestros conceptos y el mundo. Las emociones que evalúan la satisfacción o no de este instinto se sitúan dentro de lo que se podría llamar emociones de nivel alto, como las estéticas.

Todos estos mecanismos interactúan entre sí para producir diferentes  niveles de conceptos, lo que determina una jerarquía en la mente. Podríamos decir que los objetos-conceptos de bajo nivel son aquellos más básicos, y que los de más alto nivel son aquellos que integran una mayor cantidad de información y abstracción. Un ejemplo de este paso de nivel bajo a alto es el siguiente: un concepto de bajo nivel sería por ejemplo “libro”, un concepto de más nivel sería “biblioteca”, después “universidad”, “sistema educativo” etc. Lo interesante de esta organización es que todos los conceptos de más alto nivel tienen un propósito, dotándoles de más sentido y que es algo que los diferencia de los objetos de nivel bajo.  Pero también, al ser objetos de nivel muy alto, no somos capaces de “verlos claramente”, lo que condiciona también que estén mezclados con emociones (si vas a hablar de tu partido político favorito es complicado separar entendimiento de emociones, por ejemplo). Y lo más importante de todo, el instinto de conocimiento (KI) es el que permite llegar a los términos de alto nivel.

Bien, ya casi hemos llegado al centro de la cuestión. El KI tiene dos mecanismos diferentes para operar en la jerarquía de la mente: diferenciación y síntesis. El de síntesis es precisamente el mecanismo que acabo de describir por el cual se pueden comprender conceptos de alto nivel altamente relacionados con emociones, y es el que se ocupa de otorgar sentido o propósito esos mismos. El de diferenciación consiste en generar conocimiento mediante la creación de conceptos más específicos, diversos y detallados, y donde el lenguaje es la principal “herramienta” de la diferenciación. Por lo tanto son dos mecanismos opuestos, ya que mediante la síntesis podemos llegar a conceptos de alto nivel altamente emocionales y mediante la diferenciación podemos llegar a conocimiento objetivo, típico del avance científico y tecnológico.

Y aquí es donde nos diferenciamos del resto de los animales ya que ellos son mucho menos capaces de separar ambos mecanismos y en cada apreciación del mundo no pueden separar el conocimiento objetivo de las emociones. Un ejemplo es el de las llamadas de los cercopitecos vervet (Chlorocebus pygerythrus) ya que el grito avisa de la cercanía de los enemigos. Sin embargo, el comprendimiento de la situación (concepto de peligro), la evaluación (emoción de miedo) y el comportamiento (grito y salto a un árbol) no están diferenciados y cada llamada funciona como un solo concepto. En humanos somos capaces de separar los conceptos de una forma mucho más eficiente por lo que podemos conseguir conocimiento no atado a emociones o instintos. Sin embargo, pagamos un alto precio por esta capacidad, nuestra psique no es “completa” al estilo de los animales.

Aquí tenemos a nuestros amigos, los cercopitecos vervet

¿Qué queremos decir cuando digo que no tenemos una psique completa? Que el conocimiento objetivo que tomamos del exterior entra en un conflicto continuo con el instinto, y este es el punto clave de todo esto. Hay que tener claro que ambos mecanismos (síntesis y diferenciación) son útiles para nosotros, por lo que normalmente existe un equilibrio entre uno y otro. La diferenciación es la esencia de la evolución cultural, pero puede conducir a una desconexión entre el conocimiento conceptual y las necesidades instintivas, la pérdida del sentimiento de propósito y sentido incluido el propósito de cualquier conocimiento cultural.

Llegamos al quid de la cuestión, el conflicto entre el conocimiento “objetivo” y nuestra parte más instintiva. Este conflicto es llamado, en el campo de la psicología, disonancia cognitiva. Prácticamente, cada pieza de conocimiento objetivo va a entrar en conflicto con nuestra parte más instintiva, y es aquí donde ya entra en juego la música. El equilibrio entre síntesis y diferenciación es fundamental para la evolución de la cultura, y los autores proponen que la música ayuda a mantener ese equilibrio. Con el origen del lenguaje, la acumulación de conocimiento diferenciado sobrepasó en gran medida nuestra capacidad para mantener la síntesis, y según argumentan muchos autores, a la vez que el lenguaje también evolucionó la capacidad de musicalidad. La base de esta capacidad de reconciliación entre ambas partes que tiene la música puede derivar de su propia naturaleza. Se ha argumentado que en un principio habría una especie de estado donde el lenguaje estaba “fusionado” con la música (al estilo de los gritos de los animales), y que este proto-lenguaje no interferiría con la síntesis. Sin embargo, y esto ya es a modo de pensamiento propio, resulta un tanto paradójico que casualmente este proto-lenguaje se pudiera diferenciar en dos partes totalmente complementarias como el lenguaje verbal (cargado de información pero poca emoción) y el lenguaje musical (justamente lo contrario). Es complicado demostrar la teoría del proto-lenguaje a mi modo de ver.

Entonces, ya tenemos una función crucial y adaptativa adjudicada a la música: establecer un equilibrio entre esos dos mundos complementarios, vitales, pero opuestos en cierto sentido. ¿Se puede comprobar de alguna forma esta hipótesis? El mismo autor de las revisiones que he mencionado antes ha llevado a cabo varios experimentos que parecen demostrar toda esta parafernalia teórica (al menos en parte) y que ahora vamos a comentar brevemente si os quedan neuronas sanas.

Ejemplos de grandes músicos. De izquierda a derecha: John Williams, Sergei Rachmaninov y el grupo Pink Floyd.

En el primero de ellos [4] testan la función de la presencia de música de Mozart (siendo fieles al “efecto Mozart” testado científicamente, no al bulo) en la mitigación de esa disonancia cognitiva, en niños de unos 4 años de edad. El experimento se realizó de la siguiente manera: el experimentador les daba a cada niño unos cuantos juguetes y primero jugaban a un “juego de evaluación”, donde el sujeto ordenaba los juguetes según un ranking personal; más tarde, el investigador se marchaba del lugar comentándole al niño que iba a estar fuera durante un tiempo, y que le permitía jugar con todos los juguetes salvo con el segundo de la lista que había elaborado el niño. Está comprobado que este suceso causa un periodo de disonancia cognitiva al niño, y se han extendido tanto a jóvenes como a adultos. Más tarde, el experimentador volvía y jugaba de nuevo al juego de evaluación. Lo esperado en el caso de ausencia de música, tras causar la disonancia cognitiva al chaval, es que éste devaluara la posición del juguete prohibido con tal de evadir el amargo momento. De hecho, la devaluación de una de las opciones que nos causan disonancia cognitiva está bastante demostrada y tiene base estadística. Y al contrario, el resultado esperado con presencia de música es que no se sufriera tanta devaluación o que incluso se aumentase el rango del juguete prohibido. Los resultados finales concuerda con la hipótesis del autor de forma significativa y en cada una de las dos repeticiones que se efectuaron con el fin de afianzar más las conclusiones.

El otro estudio [5] tiene como base a jóvenes de entre 14 y 15 años, y en este se mide la capacidad de la música (otra vez con el efecto Mozart) para ver si interfería en el desarrollo de un pequeño test de 16 cuestiones sobre el temario que estaban dando en ese momento en la clase de ciencias. Pero aquí van un paso más allá y forman un grupo extra, por lo que a los primeros les ponen música placentera y al segundo grupo les ponen música desagradable, ambas piezas elegidas al margen del grupo. Aparte también hay un grupo control. Esta distinción sirve para ver si el efecto del hedonismo en la música es capaz de mitigar el susodicho efecto de la disonancia cognitiva. Aquí miden varios factores, entre los que se encuentran la nota media de cada grupo, el estrés o la duración del examen, y al final llegan a conclusiones parecidas a las del anterior estudio: la música placentera ayuda a los estudiantes a aguantar mejor el estrés de la situación, a asimilar mejor la dificultad de la tarea, e incluso puede verse que las notas son algo mejores (yo tengo mis reservas en cuanto a este punto).Y aunque el grupo control no se diferencia mucho del grupo con música desagradable, los autores comentan que harían falta más estudios con el fin de ver qué efectos tiene esta música realmente.

Concluyendo esta larga y densa entrada, una cosa está clara, hoy en día hay muy poca gente que no escuche música de forma casi diaria. De forma más o menos consciente sabemos que ésta es útil aunque sea en sentidos más primarios como “hacernos felices” o simplemente por disfrutar un rato. Pero su utilidad adaptativa sigue siendo hoy en día bastante desconocida a pesar de todo lo que os he contado aquí. Falta mucho por saber sobre cómo pudo originarse, si realmente se originó conjuntamente con el lenguaje, o incluso qué genes podrían participar en ello. Hay tantas y tantas preguntas interesantes por responder que esta no va a ser mi última entrada sobre ello. ¡Pero, oh, amigo, no huyas despavorido aún! Prometo que la siguiente será mucho más amena, más ligera, y que hasta puede que incluya más imágenes. Ahora solo me queda felicitarte y agradecerte si has tenido el valor de leer hasta este punto final.

Referencias

1. Darwin. The descent of man, and selection in relation to sex.

2. Perlovsky, L. 2010. Musical emotions: Functions, origins, evolution. Physics of Life Reviews. 7:2-27

3. Perlovsky, L. 2012. Cognitive function, origin and evolution of musical emotions. Musicae Scientiae. 16:185-199.

4. Masataka, N y Perlovsky, L. 2012. The efficacy of musical emotions provoked by Mozart's music for the reconciliation of cognitive dissonance. Scientific Reports. 2:694

5. Perlovsky, L; Cabanac, A.;Bonniot-Cabanac, M-C y Cabanac, M. 2013. Mozart effect, cognitive dissonance, and the pleasure of music. Behavioural Brain Research. 244:9-14