Información

¿Cómo optimizan los humanos las ruidosas funciones multivariables en entornos experimentales?

¿Cómo optimizan los humanos las ruidosas funciones multivariables en entornos experimentales?


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Imagina un experimento como este:

Se le pide a un participante que optimice una función desconocida (digamos minimizar). En cada prueba, el participante proporciona varios valores de entrada y recibe un valor de salida. Ahora imagine también que la salida es ruidosa, ya que las mismas entradas conducen a una salida más un componente aleatorio.

Para pensar en uno de los muchos ejemplos específicos posibles, imagine la siguiente función

$$ Y = (X -3) ​​^ 2 + (Z-2) ^ 2 + (W-4) ^ 2 + e, $$

donde $ e $ se distribuye normalmente, media = 0, sd = 3.

En cada prueba, el participante proporcionaría un valor de $ X $, $ Z $ y $ W $. Y obtendrían un valor de $ Y $ basado en esta función subyacente. Su objetivo sería minimizar el valor de $ Y $. No se les ha dicho la forma funcional subyacente. Solo saben que hay un mínimo global y que hay un componente aleatorio.

Me interesa leer sobre las estrategias que utilizan los seres humanos para realizar esta tarea en entornos experimentales. Tenga en cuenta que no me interesa directamente cómo las computadoras hacen la tarea o cómo los programadores y matemáticos podrían completar esta tarea.

Preguntas

  • ¿Cuáles son algunas buenas referencias para aprender acerca de la literatura sobre cómo los humanos aprenden a optimizar funciones multivariables ruidosas?
  • ¿Cuáles son algunos de los hallazgos clave sobre cómo los humanos optimizan las funciones multivariables ruidosas?

Esta es una respuesta un poco tangencial, pero es de esperar que siga siendo útil.

Cuando damos a los humanos datos ruidosos, básicamente podemos pensar en ellos como una especie de Máquinas de inferencia bayesiana que tratan de averiguar cómo es la función de la que provienen los datos. Lo importante que necesitamos saber es qué tan fuerte es parcialidad los humanos (anteriores) tienen para esperar ciertas relaciones.

Desafortunadamente, parece que los humanos están extremadamente predispuestos hacia las relaciones lineales positivas. Creo que esto hará que sea muy difícil para ellos optimizar los datos presentados como en su pregunta, porque constantemente asumirán que provienen de una línea recta. Esto se refleja realmente bien en la siguiente figura de Kalish et al. (2007):

El experimento que generó la imagen de arriba es bastante diferente al que usted describe, pero podemos pensar que es un tipo de ruido muy particular. Una persona en el escenario $ n $ se le da 25 $ (x, y) $ pares de la función en la etapa $ n - 1 $. Luego, se prueba a la persona dándole un valor de x y se le pide una y, 25 veces. Los resultados de esto se transmiten a la persona en el juicio. $ n + 1 $ como los datos de entrenamiento. Por lo tanto, podríamos pensar en los errores de la persona en la etapa n como ruido / errores (aunque errores sistemáticos) para la persona en la etapa $ n + 1 $. Como puede ver, no se necesita mucho de este ruido para perder toda la estructura de la función con la que comenzó y volver al sesgo natural de una relación lineal positiva. De hecho, en la condición 1, los participantes ya están completamente confundidos acerca de la función en forma de U después de strage $ n = 1 $ (por lo que el primer participante, sin error, ya tiene dificultades para comprender la función de $ (x, y) $ pares).

Referencias

Kalish, M. L., Griffiths, T. L. y Lewandowsky, S. (2007). Aprendizaje iterado: la transmisión de conocimiento intergeneracional revela sesgos inductivos. Psychonomic Bulletin & Review, 14 (M), 288-294. [pdf]


Esto parece estar relacionado con la literatura sobre aprendizaje de probabilidad de señales múltiples (MCPL). En este paradigma, una tarea típica presenta a los sujetos una lista de señales y valores, y les pide que predigan la probabilidad de ciertos resultados. Este paradigma tiene una cantidad decente de literatura tanto en la comunidad JDM (juicio y toma de decisiones) como en la comunidad de factores humanos. Para ver la relevancia, considere a un médico que tiene que diagnosticar a un paciente (proporcionar tratamiento) basándose en un conjunto finito de señales (síntomas).

Empíricamente, el juicio humano de este tipo se ha modelado utilizando el método de Egon Brunswik funcionalismo probabilístico, quizás más comúnmente conocido como el modelo de lente o teoría del juicio social. Esta es una metodología útil para comparar el juicio humano con correlaciones ecológicas verdaderas.

La imagen de arriba muestra el modelo de lente. Para dar un ejemplo, considere la tarea de una junta de admisiones universitarias que debe decidir a quién admitir. El entorno / criterio puede ser su GPA final de la universidad, y las señales pueden ser el GPA de la escuela secundaria, las puntuaciones del SAT, la muestra de escritura, etc. Puede usar la regresión múltiple para encontrar los pesos ecológicos 'verdaderos' de estas señales en el criterio del medio ambiente, y de manera similar puede hacer lo mismo con la estimación de la junta de admisión sobre el éxito de un estudiante (si fueran a estimar el GPA).

Una junta de admisión observará (con suerte) el efecto de diferentes señales en el éxito y revisará el peso de las señales con la experiencia. Desafortunadamente, la gente no suele ser tan buena en esta tarea.

Algunos hallazgos comunes:

  • Las personas tienden a usar no más de 3 señales, incluso si afirman que usan más.
  • Las personas suelen ser superadas por un modelo bootstrap de sí mismas.
  • Las personas a menudo obtienen un rendimiento superior al de un modelo de peso unitario de sí mismos: en otras palabras, si simplemente establece los pesos de señales más altos observados (en el lado derecho) en 1, y todos los demás en 0, puede obtener un mejor predictor del resultado.

Lo que deduzco de esto es que las personas probablemente tendrán pocas posibilidades de éxito al estimar los pesos de las señales a partir de una ecuación compleja como la que presentas. Sin embargo, puede medir estos pesos de las señales de forma iterativa para observar las tasas de aprendizaje y hacer otras cosas divertidas, incluso si es mejor que todos nos juzguen mediante algoritmos informáticos.


Control del motor

2.1 Unidades de movimiento y sus límites

Uno de los desafíos básicos en el estudio del control motor es la disección de unidades de movimiento fundamentales. En esta terminología un unidad es un patrón relativamente invariante de contracciones musculares que típicamente se provocan juntas. La referencia a una de las formas más complejas de control del movimiento humano, el habla, es ilustrativa (Neville 1995). Cuando hablamos, articulamos una serie de fonemas ampliamente invariantes (patrones de sonido básicos) en secuencia. Esto permite que la articulación del habla sea relativamente "libre de pensamientos" en el discurso normal, y permite al oyente decodificar el mensaje a través de una compleja serie de procesos cognitivos perceptivos y de orden superior (ver Aspectos sintácticos del lenguaje, base neural de Control del motor Lenguaje de señas: aspectos psicológicos y neuronales Procesos léxicos (conocimiento de palabras): aspectos psicológicos y neuronales Producción del habla, base neuronal de ). El ejemplo es útil porque, en el fluir fluido del habla, los fonemas individuales a menudo están "coarticulados" con los detalles finos de una unidad de sonido que refleja la producción de patrones de sonido anteriores y posteriores. Así que incluso aquí las propiedades "intrínsecas" de una unidad de habla pueden ser sensibles a las influencias extrínsecas definidas por otras unidades de habla. Esto es lo que le da al habla su naturaleza fluida y fluida (a diferencia, por ejemplo, de la mayoría de los "discursos" generados por computadora).

Así, en cierto sentido, el movimiento y sus "unidades" de control motor son abstracciones que con frecuencia se desdibujan en los bordes y que pueden definirse desde una serie de perspectivas complementarias (Golani 1992). En formas complejas de movimiento, como tocar un deporte o un instrumento musical, o bailar con un compañero en movimiento, muchas vías neuronales se organizan juntas en patrones deslumbrantes que están ampliamente distribuidos, ordenados en serie y paralelos en sus operaciones. Es por esta razón que la distinción misma entre los sistemas de control motor y otras propiedades del sistema nervioso a menudo es difícil de desentrañar (ver Visión para la acción: mecanismos neuronales Control cognitivo (funciones ejecutivas): papel de la corteza prefrontal ).


Artículo de revisión

  • 1 Escuela de Artes y Humanidades, Universidad Edith Cowan, Joondalup, WA, Australia
  • 2 Mary Immaculate College, Universidad de Limerick, Limerick, Irlanda

A pesar de que se ha prestado una atención especial a los problemas relacionados con la confiabilidad de la investigación psicológica (por ejemplo, la crisis de la replicación), los problemas de validez de esta investigación no se han considerado en la misma medida. Este artículo destaca un tema que cuestiona la validez de la práctica de investigación común de estudiar muestras de individuos y usar estadísticas basadas en muestras para inferir generalizaciones que se aplican no solo a la población de padres, sino a los individuos. La falta de ergodicidad en los datos humanos significa que tales generalizaciones no están justificadas. Este problema se ilustra con respecto a dos escenarios comunes en la investigación psicológica que plantean preguntas sobre el tipo de teorías que se proponen típicamente para explicar el comportamiento y la cognición humanos. El artículo presenta un método de análisis de datos que requiere una mayor atención a la gama de comportamientos exhibidos por los individuos en nuestra investigación para determinar la omnipresencia de los efectos observados en los datos de muestra. Este enfoque del análisis de datos producirá resultados que están más en sintonía con los tipos de generalizaciones típicas en los informes de investigación psicológica que con los métodos de análisis convencionales.


Introducción al diseño robusto (método Taguchi)

El método de diseño robusto, también llamado Método Taguchi, del que fue pionero el Dr. Genichi Taguchi, mejora enormemente la productividad de la ingeniería. Al considerar conscientemente los factores de ruido (variación ambiental durante el uso del producto & # 8217s, variación de fabricación y deterioro de los componentes) y el costo de fallas en el campo, el método de diseño robusto ayuda a garantizar la satisfacción del cliente. Robust Design se enfoca en mejorar la función fundamental del producto o proceso, facilitando así diseños flexibles e ingeniería concurrente. De hecho, es el método más poderoso disponible para reducir el costo del producto, mejorar la calidad y simultáneamente reducir el intervalo de desarrollo.

1. ¿Por qué utilizar un método de diseño robusto?
Durante los últimos cinco años, muchas empresas líderes han invertido mucho en el enfoque Six Sigma destinado a reducir el desperdicio durante la fabricación y las operaciones. Estos esfuerzos han tenido un gran impacto en la estructura de costos y, por lo tanto, en los resultados de esas empresas. Muchos de ellos han alcanzado el máximo potencial del enfoque tradicional Six Sigma. ¿Cuál sería el motor de la próxima ola de mejora de la productividad?

Brenda Reichelderfer de ITT Industries informó sobre su encuesta de evaluación comparativa de muchas empresas líderes, & # 8220design influye directamente en más del 70% del costo del ciclo de vida del producto, las empresas con alta efectividad en el desarrollo de productos tienen ganancias tres veces las ganancias promedio y las empresas con alta efectividad en el desarrollo de productos. tienen un crecimiento de ingresos dos veces mayor que el crecimiento de ingresos promedio. & # 8221 Ella también observó, & # 822040% de los costos de desarrollo de productos se desperdician. & # 8221

Estas y otras observaciones similares de otras empresas líderes las están impulsando a adoptar procesos mejorados de desarrollo de productos bajo el lema Design for Six Sigma. El enfoque de Diseño para Six Sigma se centra en 1) aumentar la productividad de la ingeniería para que los nuevos productos se puedan desarrollar rápidamente y a bajo costo, y 2) la gestión basada en el valor.

El método de diseño robusto es fundamental para mejorar la productividad de la ingeniería. Creado por el Dr. Genichi Taguchi después del final de la Segunda Guerra Mundial, el método ha evolucionado durante las últimas cinco décadas. Muchas empresas de todo el mundo han ahorrado cientos de millones de dólares al utilizar el método en diversas industrias: automóviles, xerografía, telecomunicaciones, electrónica, software, etc.

1.1. Problemas típicos resueltos por un diseño robusto
Un equipo de ingenieros estaba trabajando en el diseño de un receptor de radio para la comunicación tierra-aeronave que requiere alta confiabilidad, es decir, baja tasa de error de bit, para la transmisión de datos. Por un lado, construir series de prototipos para eliminar los problemas de forma secuencial sería tremendamente caro. Por otro lado, el esfuerzo de simulación por computadora para evaluar un solo diseño también requería mucho tiempo y era costoso. Entonces, ¿cómo se puede acelerar el desarrollo y al mismo tiempo asegurar la confiabilidad?

En otro proyecto, un fabricante había introducido una fotocopiadora de alta velocidad en el campo solo para descubrir que el alimentador de papel se atascaba casi diez veces más de lo planeado. El método tradicional para evaluar la confiabilidad de una única idea de diseño nuevo solía llevar varias semanas. ¿Cómo puede la empresa realizar la investigación necesaria en poco tiempo y crear un diseño que no vuelva a avergonzar a la empresa en el campo?

El método de diseño robusto ha ayudado a reducir el tiempo y el costo de desarrollo en un factor de dos o más en muchos de estos problemas.

En general, las decisiones de ingeniería involucradas en el desarrollo de productos / sistemas se pueden clasificar en dos categorías:

  • Implementación sin errores del conocimiento y la experiencia colectivos pasados
  • Generación de nueva información de diseño, a menudo para mejorar la calidad / confiabilidad, el rendimiento y el costo del producto.

Si bien las herramientas CAD / CAE son efectivas para implementar conocimientos pasados, el método de diseño robusto mejora en gran medida la productividad en la generación de nuevos conocimientos al actuar como un amplificador de las habilidades de ingeniería. Con Robust Design, una empresa puede alcanzar rápidamente todo el potencial tecnológico de sus ideas de diseño y lograr mayores ganancias.

2. Estrategia de robustez

La reducción de la variación se reconoce universalmente como una clave para la mejora de la fiabilidad y la productividad. Hay muchos enfoques para reducir la variabilidad, cada uno de los cuales tiene su lugar en el ciclo de desarrollo del producto.

Al abordar la reducción de la variación en una etapa particular del ciclo de vida de un producto, se pueden evitar fallas en las etapas posteriores. El enfoque Six Sigma ha logrado enormes ganancias en la reducción de costos al detectar problemas que ocurren en las operaciones de fabricación o de cuello blanco y solucionar las causas inmediatas. La estrategia de robustez consiste en prevenir problemas mediante la optimización de los diseños de productos y los diseños de procesos de fabricación.

El fabricante de un amplificador operacional diferencial utilizado en teléfonos de monedas se enfrentó al problema del voltaje de compensación excesivo debido a la variabilidad de fabricación. El alto voltaje de compensación provocó una mala calidad de voz, especialmente para los teléfonos más alejados de la oficina central. Entonces, ¿cómo minimizar los problemas de campo y los costos asociados? Hay muchos enfoques:

  1. Compense a los clientes por sus pérdidas.
  2. Elimine los circuitos que tengan una gran tensión de compensación al final de la línea de producción.
  3. Establezca tolerancias más estrictas mediante el control de procesos en la línea de fabricación.
  4. Cambie los valores nominales de los parámetros críticos del circuito de modo que la función del circuito se vuelva insensible a la causa, es decir, la variación de fabricación.

El enfoque 4 es la estrategia de robustez. A medida que se pasa del enfoque 1 al 4, se avanza progresivamente en el ciclo de entrega del producto y también se vuelve más eficiente en el control de costos. Por tanto, es preferible abordar el problema lo antes posible. La estrategia de robustez proporciona la metodología crucial para llegar sistemáticamente a soluciones que hagan que los diseños sean menos sensibles a las diversas causas de variación. Se puede utilizar para optimizar el diseño de productos, así como para el diseño de procesos de fabricación.

La estrategia de robustez utiliza cinco herramientas principales:

  1. El diagrama P se utiliza para clasificar las variables asociadas con el producto en factores de ruido, control, señal (entrada) y respuesta (salida).
  2. La función ideal se utiliza para especificar matemáticamente la forma ideal de la relación señal-respuesta tal como se encarna en el concepto de diseño para hacer que el sistema de nivel superior funcione perfectamente.
  3. La función de pérdida cuadrática (también conocida como función de pérdida de calidad) se utiliza para cuantificar la pérdida incurrida por el usuario debido a la desviación del rendimiento objetivo.
  4. La relación señal-ruido se utiliza para predecir la calidad del campo a través de experimentos de laboratorio.
  5. Las matrices ortogonales se utilizan para recopilar información confiable sobre factores de control (parámetros de diseño) con una pequeña cantidad de experimentos.

2.1 Diagrama P

P-Diagram es imprescindible para todo proyecto de desarrollo. Es una forma de definir sucintamente el alcance del desarrollo. Primero identificamos la señal (entrada) y la respuesta (salida) asociadas con el concepto de diseño. Por ejemplo, al diseñar el sistema de refrigeración de una habitación, el ajuste del termostato es la señal y la temperatura ambiente resultante es la respuesta.

A continuación, considere los parámetros / factores que están más allá del control del diseñador. Esos factores se denominan factores de ruido. La temperatura exterior, la apertura / cierre de ventanas y el número de ocupantes son ejemplos de factores de ruido. Los parámetros que puede especificar el diseñador se denominan factores de control. El número de registros, su ubicación, el tamaño de la unidad de aire acondicionado, el aislamiento son ejemplos de factores de control.

Idealmente, la temperatura ambiente resultante debería ser igual a la temperatura del punto de ajuste. Por lo tanto, la función ideal aquí es una línea recta de pendiente uno en el gráfico de respuesta de señal. Esta relación debe ser válida para todas las condiciones de funcionamiento. Sin embargo, los factores de ruido hacen que la relación se desvíe del ideal.

El trabajo del diseñador es seleccionar los factores de control apropiados y sus configuraciones para que la desviación del ideal sea mínima a un bajo costo. Este diseño se denomina diseño de sensibilidad mínima o diseño robusto. Se puede lograr aprovechando la no linealidad de los productos / sistemas. El método de diseño robusto prescribe un procedimiento sistemático para minimizar la sensibilidad del diseño y se denomina diseño de parámetros.

Una abrumadora mayoría de fallas de productos y los costos de campo resultantes y las iteraciones de diseño provienen de ignorar los factores de ruido durante las primeras etapas de diseño. Los factores de ruido surgen uno a uno como sorpresas en las siguientes etapas de entrega del producto, lo que provoca costosos fallos y curitas. Estos problemas se evitan en el método de diseño robusto al someter las ideas de diseño a factores de ruido a través del diseño de parámetros.

El siguiente paso es especificar la desviación permitida de los parámetros de los valores nominales. Implica equilibrar el costo adicional de tolerancias más estrictas con los beneficios para el cliente. Se deben tomar decisiones similares con respecto a la selección de diferentes grados de los subsistemas y componentes de las alternativas disponibles. La función de pérdida cuadrática es muy útil para cuantificar el impacto de estas decisiones en los clientes o sistemas de nivel superior. El proceso de equilibrar el costo se llama Diseño de tolerancia.

El resultado de utilizar un diseño de parámetros seguido de un diseño de tolerancia son productos exitosos a bajo costo.

2.2 Medición de la calidad

En la mejora de la calidad y la optimización del diseño, la métrica juega un papel crucial. Desafortunadamente, una sola métrica no cubre todas las etapas de la entrega del producto.

Es común utilizar la fracción de productos fuera de los límites especificados como medida de calidad.Aunque es una buena medida de la pérdida debida a la chatarra, fracasa estrepitosamente como indicador de la satisfacción del cliente. La función de pérdida de calidad cumple muy bien ese propósito.

Definamos las siguientes variables:

m: valor objetivo para una característica crítica del producto

+/- Delta: desviación permitida del objetivo

A: pérdida debido a un producto defectuoso

Entonces, la pérdida de calidad, L, que sufre un cliente medio debido a un producto con y como valor de la característica viene dada por la siguiente ecuación:

Si la producción de la fábrica tiene una distribución de la característica crítica con media my varianza s2, entonces la pérdida de calidad promedio por unidad del producto viene dada por:

2.3 Relaciones señal / ruido (S / N)

La fase de diseño del producto / proceso / sistema implica decidir los mejores valores / niveles para los factores de control. La relación señal / ruido (S / N) es una métrica ideal para ese propósito.

La ecuación para la pérdida de calidad promedio, Q, dice que la pérdida de calidad promedio del cliente depende de la desviación de la media del objetivo y también de la varianza. Una clase importante de problema de optimización del diseño requiere la minimización de la varianza mientras se mantiene la media en el objetivo.

Entre la media y la desviación estándar, normalmente es fácil ajustar la media en el objetivo, pero reducir la varianza es difícil. Por lo tanto, el diseñador debe minimizar la varianza primero y luego ajustar la media en el objetivo. Entre los factores de control disponibles, la mayoría de ellos debe usarse para reducir la varianza. Solo uno o dos factores de control son adecuados para ajustar la media en el objetivo.

El problema de optimización del diseño se puede resolver en dos pasos:

1. Maximice la relación S / N, h, definido como

Este es el paso de la reducción de la varianza.

2. Ajuste la media en el objetivo usando un factor de control que no tenga ningún efecto sobre h. Tal factor se llama factor de escala. Este es el paso de ajustar la media en el objetivo.

Normalmente, se busca un factor de escala para ajustar la media en el objetivo durante el diseño y otro para ajustar la media para compensar la variación del proceso durante la fabricación.

2.4 Relaciones S / N estáticas versus dinámicas

En algunos problemas de ingeniería, el factor de señal está ausente o toma un valor fijo. Estos problemas se denominan problemas estáticos y las relaciones S / N correspondientes se denominan relaciones S / N estáticas. La relación S / N descrita en la sección anterior es una relación S / N estática.

En otros problemas, la señal y la respuesta deben seguir una función llamada función ideal. En el ejemplo del sistema de enfriamiento descrito anteriormente, la respuesta (temperatura ambiente) y la señal (punto de ajuste) deben seguir una relación lineal. Estos problemas se denominan problemas dinámicos y las relaciones S / N correspondientes se denominan relaciones S / N dinámicas.

La relación dinámica S / N se ilustrará en una sección posterior utilizando un ejemplo de diseño de turbina.

Las relaciones dinámicas S / N son muy útiles para el desarrollo de tecnología, que es el proceso de generar soluciones flexibles que se pueden utilizar en muchos productos.

3. Pasos en el diseño robusto de parámetros

El diseño robusto de parámetros tiene 4 pasos principales:

1. Formulación de problemas:

Este paso consiste en identificar la función principal, desarrollar el diagrama P, definir la función ideal y la relación S / N y planificar los experimentos. Los experimentos implican cambiar los factores de control, ruido y señal de forma sistemática utilizando matrices ortogonales.

2. Recopilación / simulación de datos:

Los experimentos pueden realizarse en hardware o mediante simulación. No es necesario tener un modelo a escala real del producto con fines de experimentación. Es suficiente y más deseable tener un modelo esencial del producto que capture adecuadamente el concepto de diseño. Por tanto, los experimentos se pueden realizar de forma más económica.

3. Análisis de los efectos de los factores:

Los efectos de los factores de control se calculan en este paso y los resultados se analizan para seleccionar el ajuste óptimo de los factores de control.

4. Predicción / Confirmación:

Con el fin de validar las condiciones óptimas, predecimos el rendimiento del diseño del producto bajo la línea de base y los ajustes óptimos de los factores de control. Luego, realizamos experimentos de confirmación en estas condiciones y comparamos los resultados con las predicciones. Si los resultados de los experimentos de confirmación concuerdan con las predicciones, implementamos los resultados. De lo contrario, los pasos anteriores deben repetirse.

Ver también: Casos prácticos de diseño robusto


Habla inteligible a pesar de un entorno ruidoso

La profesora Dorothea Kolossa y Mahdie Karbasi del grupo de investigación Cognitive Signal Processing de Ruhr-Universit & aumlt Bochum (RUB) han desarrollado un método para predecir la inteligibilidad del habla en entornos ruidosos. Los resultados de sus experimentos son más precisos que los obtenidos mediante los métodos estándar aplicados hasta ahora. Por tanto, podrían facilitar el proceso de desarrollo de los audífonos. La investigación se llevó a cabo en el curso del proyecto financiado con fondos europeos "Mejora de la comunicación a través de la investigación auditiva aplicada", o "Puedo oír" para abreviar.

Los algoritmos específicos de los audífonos filtran los ruidos de fondo para garantizar que los usuarios puedan comprender el habla en cada situación, independientemente de si se encuentran en un restaurante lleno o cerca de una carretera con mucho tráfico. El desafío para los investigadores es mantener una alta calidad de transmisión de voz mientras se filtran los ruidos de fondo. Antes de que se lance al mercado un modelo de audífono optimizado, los nuevos algoritmos están sujetos a pruebas que requieren mucho tiempo.

Los investigadores y desarrolladores industriales realizan pruebas de audición con participantes humanos para analizar en qué medida los respectivos nuevos algoritmos garantizarán la inteligibilidad del habla. Si pudieran evaluar la inteligibilidad del habla de manera confiable en un proceso automatizado, podrían reducir las prácticas de prueba que consumen mucho tiempo.

Nuevo algoritmo desarrollado

Hasta la fecha, los enfoques estándar para predecir la inteligibilidad del habla han incluido el llamado método STOI (medida objetiva de inteligibilidad del habla a corto plazo) y otros métodos basados ​​en referencias. Estos métodos requieren una señal original clara, es decir, una pista de audio que se ha grabado sin ruidos de fondo. En función de las diferencias entre el sonido original y el filtrado, se estima el valor de la inteligibilidad del habla. Kolossa y Karbasi han encontrado una forma de predecir la inteligibilidad sin necesidad de una señal de referencia clara, que es aún más precisa que el método STOI. En consecuencia, los hallazgos de Kolossa y Karbasi podrían ayudar a reducir los procesos de prueba en la fase de desarrollo de productos de los audífonos.

Los investigadores de RUB han probado su método con 849 personas con audición normal. Con este fin, se pidió a los participantes que evaluaran archivos de audio a través de una plataforma en línea. Con la ayuda de su algoritmo, Kolossa y Karbasi estimaron qué porcentaje de una oración del archivo respectivo entenderían los participantes. Posteriormente, compararon su valor previsto con los resultados de la prueba.

Perspectiva de la investigación

En el siguiente paso, Kolossa y Karbasi tienen la intención de realizar las mismas pruebas con participantes con discapacidad auditiva. Están trabajando en algoritmos que pueden evaluar y optimizar la inteligibilidad del habla de acuerdo con el umbral de percepción individual o el tipo de discapacidad auditiva. En el mejor de los casos, el estudio proporcionará métodos para diseñar un audífono inteligente. Dichos audífonos podrían reconocer automáticamente el entorno y la situación actual del usuario. Si pasa de una calle tranquila a un restaurante, el audífono registraría un aumento de los ruidos de fondo. En consecuencia, filtraría los ruidos ambientales, si es posible sin perjudicar la calidad de la señal de voz.

Sobre el proyecto

El principal objetivo del proyecto "Mejora de la comunicación a través de la investigación auditiva aplicada" era optimizar los audífonos y los implantes cocleares para garantizar que cumplen su función para el usuario incluso en entornos muy ruidosos. Los investigadores de RUB trabajaron en un equipo internacional junto con investigadores del Reino Unido, Suiza, Dinamarca y Bélgica. El profesor Dr. Rainer Martin de la Facultad de Ingeniería Eléctrica y Tecnología de la Información de RUB dirigió el proyecto financiado con fondos europeos. Los socios industriales fueron el fabricante de audífonos Sivantos y la empresa de implantes cocleares Cochlear. "Puedo oír" terminó en diciembre de 2016.


Cómo se adquiere la indefensión aprendida

En un artículo de revisión que resume cincuenta años de investigación sobre el tema, dos de los principales investigadores en el campo, Martin Seligman y Steven Maier, que realizaron los principales experimentos sobre el tema, describen, a continuación, los mecanismos que originalmente se suponía que conducían a la indefensión aprendida, en el contexto de experimentos con animales:

  • Primero, DETECTA. Animales DETECTAR la dimensión de controlabilidad y incontrolabilidad. (Esto también se conoce a veces como la dimensión de contingencia y no contingencia)
  • En segundo lugar, ESPERAR. Los animales que DETECTAN incontrolabilidad ESPERAN que el impacto u otros eventos vuelvan a ser incontrolables en situaciones nuevas, lo que socava los intentos de escapar en esas situaciones.

Esencialmente, según esta teoría, cuando las personas se dan cuenta de que no pueden controlar la situación en la que se encuentran, más tarde esperan ser incapaces de controlar situaciones similares también.

Sin embargo, los investigadores sugieren que con base en los cincuenta años de evidencia acumulada desde los estudios iniciales sobre el tema, y ​​particularmente a la luz de la evidencia neurocientífica sobre el tema, la teoría original retrocedió los mecanismos de la indefensión aprendida. Como afirman los investigadores:

& # 8220 La pasividad en respuesta al shock no se aprende. Es la respuesta no aprendida por defecto a eventos aversivos prolongados y está mediada por la actividad serotoninérgica del núcleo del rafe dorsal, que a su vez inhibe el escape. Esta pasividad se puede superar aprendiendo el control, con la actividad de la corteza prefrontal medial, que favorece la detección del control que conduce a la inhibición automática del núcleo del rafe dorsal. Entonces, los animales aprenden que pueden controlar los eventos aversivos, pero el fracaso pasivo para aprender a escapar es una reacción no aprendida a la estimulación aversiva prolongada. & # 8221

En consecuencia, sugieren el siguiente mecanismo para la adquisición de la indefensión aprendida:

  • Primero: PASIVIDAD / ANSIEDAD. & # 8220 La intensa activación del núcleo del rafe dorsal por choque sensibiliza estas neuronas y esta sensibilización dura unos días y resulta en escaso escape (pasividad) y ansiedad elevada & # 8230 La detección de incontrolabilidad no es necesaria ni suficiente para la pasividad. Esto es causado por la exposición prolongada a la estimulación aversiva per se. & # 8221
  • Segundo: DETECTAR y ACTUAR. & # 8220Cuando el shock es inicialmente evitable, se DETECTA la presencia de control & # 8230 Después de la detección del control, se activa una población separada y distinta de neuronas prelóbicas que aquí llamamos ACT. Estas neuronas se proyectan hacia el núcleo del rafe dorsal e inhiben las células 5-HT que son activadas por estimulación aversiva, evitando así la activación del núcleo del rafe dorsal y evitando así la sensibilización de estas células, eliminando la pasividad y el miedo exagerado. Así que es la presencia de control, no la ausencia de control, lo que se detecta & # 8230 & # 8221
  • Tercero: ESPERAR. & # 8220Después de que se activa el circuito ACT del núcleo del rafe preimbico-dorsal, se produce un conjunto de cambios que requieren varias horas en esta vía e implican la formación de nuevas proteínas relacionadas con la plasticidad. Este es ahora un circuito que EXPECTA el control & # 8230 Sin embargo, debe entenderse claramente que esta EXPECTATIVA puede no ser un proceso o entidad cognitiva como los psicólogos tienden a verlos. Es un circuito que proporciona una función expectativa, en el sentido de que cambia o sesga la forma en que los organismos responden en el futuro como consecuencia de los eventos que ocurren en el presente. & # 8221

En resumen, los investigadores afirman que, como afirmaba la teoría original, los organismos son sensibles a la dimensión del control, y esta dimensión es fundamental. Sin embargo, la parte de la dimensión que se detecta o se espera ahora parece estar la presencia de control, no la ausencia de control& # 8220. Sin embargo, de manera crucial, también afirman lo siguiente:

& # 8220 En el nivel psicológico, hay varios otros cabos sueltos. Como afirmación general, los procesos neuronales en la corteza prefrontal se estrechan por el estrés (Arnsten, 2015). Así, el hecho de que en una situación aversiva el cerebro parezca detectar el control como ingrediente activo más que una falta de control, no significa que el cerebro no pueda detectar la falta de control en otro tipo de circunstancias, como la comida incontrolable o la falta de control cognitiva. problemas, o incluso ruidos fuertes.

Es decir, los hallazgos que hemos revisado no implican que el cerebro no tenga circuitos para detectar la no contingencia entre eventos que incluyen acciones y resultados. Más bien, puede ser que este procesamiento pueda ocurrir, pero no se implemente en situaciones que son altamente aversivas, como los experimentos de impotencia originales. Por tanto, es importante distinguir entre lo que hace el cerebro en determinadas condiciones y lo que es capaz de hacer en distintas condiciones. Esta posibilidad necesita más investigación. & # 8221

La complejidad de este fenómeno se apoya a través de otras investigaciones sobre el tema, como la investigación que muestra que la indefensión aprendida se puede adquirir de manera indirecta, al ver las experiencias de otra persona, incluso si usted mismo no tuvo esas experiencias.

En general, los mecanismos detrás de la indefensión aprendida son objeto de mucha investigación.

Al centrarse en la indefensión aprendida tal como se adquirió en el contexto de los experimentos iniciales sobre el tema, y ​​particularmente en situaciones en las que los animales estaban expuestos a un shock que no pueden controlar, la teoría original era que los animales que experimentan situaciones incontrolables detectan que incontrolabilidady espere que ocurra en situaciones futuras.

Una teoría más reciente, que se basa en la investigación neurocientífica sobre el tema, sugiere que la pasividad en respuesta al shock es el comportamiento predeterminado, no aprendido, y que los animales pueden aprender a superarlo detectando la respuesta de controlabilidad.

Sin embargo, esto no explica necesariamente cómo se adquiere la indefensión aprendida en todos los casos, ya que puede haber variabilidad en términos de cómo la adquieren diferentes organismos en diferentes situaciones. Por ejemplo, un ratón expuesto a un impacto podría desarrollar una indefensión aprendida de una manera diferente a un estudiante que desarrolle una indefensión aprendida como resultado de la retroalimentación negativa en la escuela.

Sin embargo, Desde una perspectiva práctica, cuando se trata de comprender por qué las personas, incluido usted mismo, muestran una indefensión aprendida, el factor clave es generalmente la incapacidad de controlar los resultados de las situaciones en las que se encuentran. En consecuencia, las personas que experimentan situaciones en las que lo hacen no tienen la capacidad de controlar los resultados se espera que muestren más desamparo aprendido que las personas que experimentan situaciones en las que sí tienen la capacidad de controlar los resultados.

Desamparo objetivo vs subjetivo

Al considerar el concepto de desamparo aprendido, puede ser útil comprender la diferencia entre dos tipos de desamparo:

  • Desamparo objetivo.Desamparo objetivo es un estado en el que alguien no puede hacer nada para afectar el resultado de una situación.
  • Desamparo subjetivo.Desamparo subjetivo es un estado mental donde alguien cree que no pueden hacer nada para afectar el resultado de una situación.

Los estudios sobre la indefensión aprendida se ocupan principalmente de situaciones en las que las personas que experimentaron una indefensión objetiva terminan desarrollando una indefensión subjetiva, que se traslada a otras situaciones en las que no están objetivamente indefensas.


Por qué nos gusta lo que nos gusta

De Paul Bloom Cómo funciona el placer: la nueva ciencia de por qué nos gusta lo que nos gusta proporciona un maravilloso conjunto de argumentos de por qué amamos lo que amamos. En mi propio trabajo, me llamó la atención que los niños parecen tener preferencias automáticas hacia grupos sociales que imitan el estado adulto (a pesar de tener mucha menos experiencia) y han estado trabajando para comprender estas preferencias y sus orígenes. El libro de Paul me dio varias ideas que no había considerado y pensé que valía la pena compartir sus propuestas de manera más amplia. ¡Disfrutar!

Agradezco al presidente de APS, Mahzarin Banaji, por darme la oportunidad de discutir la ciencia del placer.

Una de las ideas más interesantes de la ciencia cognitiva es la teoría de que las personas tienen la suposición predeterminada de que las cosas, las personas y los eventos tienen esencias invisibles que los hacen lo que son. Los psicólogos experimentales han argumentado que el esencialismo subyace a nuestra comprensión de los mundos físico y social, y los psicólogos del desarrollo y transculturales han propuesto que es instintivo y universal. Somos esencialistas natos.

Propongo que este esencialismo no solo influye en nuestra comprensión del mundo, sino que también da forma a nuestra experiencia, incluidos nuestros placeres. Lo que más importa no es el mundo tal como aparece a nuestros sentidos. Más bien, el disfrute que obtenemos de algo se deriva de lo que creemos que es realmente. Esto es cierto para placeres más intelectuales, como la apreciación de pinturas e historias, pero también es cierto para placeres que parecen más animales, como la satisfacción del hambre y la lujuria. Para una pintura, importa quién fue el artista para una historia, importa si es verdad o ficción para un bistec, nos importa de qué tipo de animal proviene para el sexo, nos afecta mucho quién creemos que es nuestra pareja sexual. realmente es.

¿Qué motiva este tipo de teoría? Después de todo, algunas preguntas sobre el placer tienen respuestas fáciles y tienen poco que ver con el esencialismo. Sabemos por qué los humanos disfrutan tanto de comer y beber. Sabemos por qué disfrutamos comiendo algunas cosas, como la fruta dulce, más que otras cosas, como las piedras. Sabemos por qué el sexo es a menudo divertido y por qué puede ser agradable mirar la cara sonriente de un bebé y escuchar la risa de un bebé. Las respuestas obvias son que los animales como nosotros necesitan comida y agua para sobrevivir, necesitan sexo para reproducirse y necesitan atender a nuestros hijos para que sobrevivan. El placer es la zanahoria que nos impulsa hacia estas actividades útiles para la reproducción. Como observó George Romanes en 1884, “el placer y el dolor deben haber evolucionado como el acompañamiento subjetivo de procesos que son respectivamente beneficiosos o perjudiciales para el organismo, y evolucionaron con el propósito o con el fin de que el organismo debería buscar el uno y evitarlo. el otro."

Todavía tenemos que explicar cómo funcionó todo tan bien, por qué sucede (para destrozar la letra de los Rolling Stones) que no siempre podemos obtener lo que queremos, pero queremos lo que necesitamos. Aquí es donde entra Darwin. La teoría de la selección natural explica, sin apelar a un diseñador inteligente, por qué nuestros placeres nos inclinan tan bien hacia actividades que son beneficiosas para la supervivencia y la reproducción, por qué el placer es bueno para los genes.

Ésta es una teoría adaptacionista del placer. Tiene bastante éxito en animales no humanos. Les gusta lo que dice la biología evolutiva que les debería gustar, como la comida, el agua y el sexo. En gran medida, esto también es cierto para los humanos. Pero muchos placeres humanos son más misteriosos. empiezo Cómo funciona el placer con algunos ejemplos de esto:

Algunas adolescentes disfrutan cortándose con navajas. Algunos hombres pagan mucho dinero por ser azotados por prostitutas. El estadounidense promedio pasa más de cuatro horas al día viendo televisión. La idea de tener sexo con una virgen despierta intensamente a muchos hombres. El arte abstracto puede venderse por millones de dólares. Los niños pequeños disfrutan jugando con amigos imaginarios y pueden ser reconfortados con mantas de seguridad. La gente reduce la velocidad de sus coches para ver accidentes sangrientos e ir a películas que les hacen llorar.

Considere también los placeres de la música, los objetos sentimentales (como la manta de seguridad de un niño) y el ritual religioso. Ahora bien, uno no debería apresurarse a abandonar las explicaciones adaptacionistas, y hay algunas propuestas serias sobre las ventajas selectivas de ciertos placeres desconcertantes: El amor universal por las historias podría evolucionar como una forma de práctica mental para construir una experiencia indirecta con el mundo. y explorar de forma segura realidades alternativas. El arte y los deportes pueden existir como demostraciones de aptitud. Los animales se evalúan constantemente unos a otros como aliados y compañeros, estas actividades humanas podrían ser nuestro equivalente de la cola del pavo real, evolucionada para mostrar lo mejor de nosotros mismos. La música y la danza podrían haber evolucionado como un mecanismo de coordinación para mejorar la cooperación social y los buenos sentimientos mutuos.

Aún así, este enfoque es limitado. Muchos de nuestros placeres especiales son inútiles o desadaptativos, tanto en nuestro entorno actual como en el entorno en el que ha evolucionado nuestra especie. No hay ningún beneficio reproductivo en disfrutar de mantas de seguridad, pinturas de Kandinsky o masoquismo sexual.

Muchos psicólogos desconfían de las explicaciones adaptacionistas y defenderían la alternativa de que nuestros placeres exclusivamente humanos son invenciones culturales. No dudan que los cerebros humanos hayan evolucionado, pero argumentan que lo que los humanos han llegado a poseer es una mayor capacidad de flexibilidad, podemos adquirir ideas, prácticas y gustos que son arbitrarios desde una perspectiva biológica.

Esta teoría de la plasticidad tiene que ser correcta hasta cierto punto. Nadie podría negar que la cultura puede moldear y estructurar el placer humano, incluso aquellos placeres que compartimos con otros animales, como la comida y el sexo, se manifiestan de diferentes maneras en las sociedades. Llevado al extremo, entonces, uno podría concluir que, aunque la selección natural jugó un papel limitado en la configuración de lo que nos gusta (hemos desarrollado el hambre y la sed, el impulso sexual, la curiosidad, algunos instintos sociales), tuvo poco que ver con los detalles. En palabras del crítico Louis Menand, “cada aspecto de la vida tiene un fundamento biológico exactamente en el mismo sentido, que es que a menos que fuera biológicamente posible, no existiría. Después de eso, está en juego ".

Gasto gran parte de Cómo funciona el placer argumentando que esto es un error. La mayoría de los placeres tienen orígenes de desarrollo temprano, no se adquieren a través de la inmersión en una sociedad. Y son compartidos por todos los humanos, la variedad que uno ve puede entenderse como variación sobre un tema universal. La pintura es una invención cultural, pero el amor por el arte no lo es. Las sociedades tienen historias diferentes, pero todas las historias comparten ciertos temas. Los gustos en la comida y el sexo difieren, pero no tanto. Es cierto que podemos imaginar culturas en las que el placer es muy diferente, donde la gente frota la comida con las heces para mejorar su sabor y no le interesa la sal o el azúcar, o donde gasta fortunas en falsificaciones y tira los originales a la basura, o gasta horas felices escuchando estática, encogiéndose al son de una melodía. Pero esto es ciencia ficción, no realidad.

Creo que los humanos comienzan con una lista fija de placeres y no podemos agregar a esa lista. Esto puede parecer una afirmación increíblemente fuerte, dados los inventos del chocolate, los videojuegos, la cocaína, los consoladores, las saunas, los crucigramas, los reality shows, las novelas, etc. Pero sugeriría que estos son agradables porque se conectan, de una manera razonablemente directa, con los placeres que los humanos ya poseen. Los sundaes de chocolate caliente y las costillas a la parrilla son inventos modernos, pero apelan a nuestro amor anterior por el azúcar y la grasa. Hay formas novedosas de música que se crean todo el tiempo, pero una criatura que no esté biológicamente preparada para el ritmo nunca llegará a gustarle ninguna de ellas, siempre será ruido.

Entonces, algunos placeres no son adaptaciones biológicas ni invenciones culturales arbitrarias. Esto nos lleva a un tercer enfoque, explorado en mi libro, que es que muchos de nuestros placeres más interesantes son accidentes evolutivos.

Los casos más obvios aquí son aquellos en los que algo ha evolucionado para la función X pero luego se usa para la función Y, lo que Darwin llamó "preadaptaciones". Como ejemplo simple, muchas personas disfrutan de la pornografía, pero esto no se debe a que nuestros antepasados ​​amantes de la pornografía tuvieran más descendencia que los abstemios. Más bien, ciertas imágenes tienen su efecto, al menos en parte, porque hacen cosquillas a la misma parte de la mente que responde al sexo real. Esta excitación no es una adaptación ni una respuesta aprendida arbitraria, es un subproducto, un accidente. En otro lugar he argumentado que lo mismo se aplica a la capacidad humana para el aprendizaje de palabras. Los niños son notables en el aprendizaje de palabras, pero lo hacen, no a través de una capacidad desarrollada específicamente para ese propósito, sino a través de sistemas que han evolucionado para otras funciones, como monitorear las intenciones de los demás. El aprendizaje de palabras es un accidente afortunado.

Más específicamente, muchos de nuestros placeres pueden ser subproductos accidentales de nuestro esencialismo. Los psicólogos han propuesto diferentes tipos de esencialismo. Existe el esencialismo de categoría, que es la creencia de que los miembros de una categoría determinada comparten una naturaleza profundamente oculta. Esto incluye la creencia en las esencias físicas de cosas naturales como animales y plantas, donde la esencia es interna al objeto, así como la creencia en las esencias psicológicas de cosas hechas por humanos como herramientas y obras de arte, donde la esencia es la historia del objeto. , incluidas las intenciones de la persona que lo creó. Luego está el esencialismo individual, que es la creencia de que un individuo dado tiene una esencia que lo distingue de otros miembros de su categoría, incluso de los duplicados perfectos.

Nuestra psicología esencialista da forma a nuestro placer. A veces, la esencia relevante es la esencia de la categoría, como en el dominio del sexo, donde las esencias asumidas de categorías como masculino y femenino resultan restringir poderosamente lo que le gusta a la gente. A veces, la esencia relevante es la esencia individual, que ayuda a captar cómo ciertos productos de consumo obtienen su valor, como una pintura original de Marc Chagall o la cinta métrica de John F. Kennedy (que se vendió por alrededor de $ 50,000). De manera más general, la propuesta es que lo que nos gusta y lo que nos disgusta son influencias poderosas de nuestras creencias sobre la esencia de las cosas.

Espero que mi libro provoque un debate sobre estas diferentes teorías de por qué nos gusta lo que nos gusta. En una discusión reciente, Paul Rozin se ha preocupado por la estrechez de las ciencias modernas de la mente y señala que si miras un libro de texto de psicología encontrarás poco o nada sobre deportes, arte, música, teatro, literatura, juegos y religión. Estos son dominios maravillosos e importantes de la vida humana, y no entenderemos completamente ninguno de ellos hasta que comprendamos el placer.


Resultados

La manipulación del sesgo de decisión afecta la acumulación de evidencia sensorial

En tres sesiones de grabación de EEG, los participantes humanos (N = 16) vieron un flujo continuo de texturas de líneas horizontales, verticales y diagonales alternando a una velocidad de 25 texturas / segundo. La tarea de los participantes era detectar un cuadrado con orientación definida presentado en el centro de la pantalla e informarlo presionando un botón (Figura 2A). Los ensayos consistieron en una secuencia de texturas de orden fijo incrustadas en el flujo continuo (duración total de la secuencia 1 s). Un cuadrado apareció en la quinta textura de una prueba en el 75% de las presentaciones (pruebas objetivo), mientras que en el 25% apareció una textura diagonal homogénea en la quinta posición (pruebas sin objetivo). Aunque el inicio de una prueba dentro del flujo continuo de texturas no se indicó explícitamente, la distribución similar de los tiempos de reacción en las pruebas objetivo y no objetivo sugiere que los participantes utilizaron la estructura temporal de la tarea incluso cuando no apareció ningún objetivo (Figura 2 — figura suplementaria 1A ). Las modulaciones de potencia del EEG consistentes y significativas después del inicio del ensayo (incluso para ensayos sin objetivo) confirman aún más que los sujetos registraron inicios del ensayo en ausencia de una señal explícita, usando plausiblemente el inicio de una secuencia de textura de orden fijo como una señal implícita (Figura 2 — suplemento de figura 1B).

El sesgo de decisión estratégica se desplaza hacia la acumulación de evidencia de sesgos liberales.

(A) Esquema del estímulo visual y diseño de tareas. Los participantes vieron un flujo continuo de texturas de pantalla completa orientadas en diagonal, horizontal y vertical a una velocidad de presentación de 40 ms (25 Hz). Después de intervalos aleatorios entre ensayos, se presentó una secuencia de orden fijo incrustada en la secuencia. La quinta textura en cada secuencia consistía en una única orientación diagonal (objetivo ausente), o contenía un cuadrado definido por la orientación ortogonal (orientación de 45 ° o 135 °). Los participantes decidieron si acababan de ver un objetivo, informando los objetivos detectados presionando un botón. Las condiciones liberales y conservadoras se administraron en bloques alternos de nueve minutos penalizando los fallos o las falsas alarmas, respectivamente, utilizando tonos aversivos y deducciones monetarias. Los tamaños del cuadrado y de los puntos de fijación representados no están a escala. (B) Tasas de detección promedio (aciertos y falsas alarmas) durante ambas condiciones. La tasa de fallos es igual a 1: tasa de aciertos, ya que ambos se calculan en pruebas de presencia de estímulo, y la tasa de rechazo correcto es igual a 1: tasa de falsas alarmas, ya que ambas se calculan en pruebas de ausencia de estímulo, y juntas producen las cuatro categorías de respuesta de estímulo SDT. (C) Parámetros SDT para sensibilidad y criterio. (D) Ecuación esquemática y simplificada del modelo de difusión de deriva que tiene en cuenta las distribuciones del tiempo de reacción para las decisiones de objetivo presente y objetivo implícito informadas activamente. El sesgo de decisión en este modelo se puede implementar cambiando el punto de partida del proceso de acumulación de evidencia (Z), o agregando una constante independiente de la evidencia ("sesgo de deriva", db) a la tasa de deriva. Consulte el texto y la Figura 1 para obtener más detalles. Notación: dy, cambio en la variable de decisión y por unidad de tiempo dt v · dt, deriva media (multiplicada por uno para ensayos de señal + ruido (objetivo) y −1 para ensayos de solo ruido (no objetivo)) db · dt, sesgo de deriva y cdW, ruido blanco gaussiano (media = 0, varianza = c2 · dt). (mi) Diferencia en las estimaciones de bondad de ajuste del Criterio de Información Bayesiano (BIC) para el sesgo de deriva y los modelos de punto de partida. Un valor delta BIC más bajo indica un mejor ajuste, lo que muestra la superioridad del modelo de sesgo de deriva para dar cuenta de los resultados observados. (F) Parámetros del modelo estimados para la tasa de deriva y el sesgo de deriva en el modelo de sesgo de deriva. Barras de error, SEM en 16 participantes. *** p & lt0.001 n.s., no significativo. El panel D. está modificado y reproducido con permiso de de Gee et al. (2017) (Figura 4A, publicada bajo una licencia CC BY 4.0).

Figura 2: datos de origen 1

Esta tabla csv contiene los datos de los paneles B, C, E y F. de la Figura 2.

Al alternar bloques de ensayos de nueve minutos, sesgamos activamente las decisiones de percepción de los participantes indicándoles que informaran tantos objetivos como fuera posible ('¡Detecte tantos objetivos como sea posible!', Condición liberal), o que solo informen objetivos de alta certeza ( "¡Presione sólo si está realmente seguro!", Condición conservadora). Los participantes eran libres de responder en cualquier momento durante un bloqueo cada vez que detectaban un objetivo. Un ensayo se consideró una respuesta de presente objetivo cuando se presiona un botón antes de que finalizara la secuencia de orden fijo (es decir, dentro de 0,84 s después del inicio de la quinta textura que contiene el (no) objetivo, ver Figura 2A). Proporcionamos retroalimentación auditiva y aplicamos sanciones monetarias después de que no se alcanzaran los objetivos en la condición liberal y después de falsas alarmas en la condición conservadora (Figura 2A, consulte Materiales y métodos para obtener más detalles). El número medio de ensayos para cada categoría de SDT entre los participantes fue de 1206 aciertos, 65 falsas alarmas, 186 fallos y 355 rechazos correctos en la condición liberal, y 980 aciertos, 12 falsas alarmas, 419 fallos y 492 rechazos correctos en la condición conservadora.

Los participantes adoptaron de manera confiable el cambio de sesgo de decisión previsto en las dos condiciones, como lo muestra tanto la tasa de aciertos como la tasa de falsas alarmas disminuyendo en conjunto como consecuencia de un sesgo más conservador (Figura 2B). La diferencia entre la tasa de aciertos y la tasa de falsas alarmas no fue modulada significativamente por las manipulaciones de sesgo experimentales (p = 0,81, prueba de permutación de dos lados, 10,000 permutaciones, ver Figura 2B). Sin embargo, el rendimiento de detección de objetivos se calculó con SDT estándar D' (sensibilidad perceptiva, que refleja la distancia entre el ruido y las distribuciones de la señal en la Figura 1A) (Green y Swets, 1966) fue ligeramente más alta durante el período conservador (liberal: D'= 2,0 (d.e. 0,90) versus conservador: D'= 2,31 (d.e. 0,82), p = 0,0002, consulte la Figura 2C, barras de la izquierda). Cuantificamos el sesgo de decisión utilizando la medida de criterio estándar de SDT C, en el que los valores positivos y negativos reflejan sesgos conservadores y liberales, respectivamente (ver las líneas verticales azul y roja en la Figura 1A). Esto descubrió un fuerte cambio de sesgo inducido experimentalmente de la condición conservadora a la liberal (liberal: C = - 0,13 (d.e. 0,4), versus conservador: C = 0,73 (d.e. 0,36), p = 0,0001, ver Figura 2C), así como un sesgo promedio conservador en las dos condiciones (C = 0,3 (d.e. 0,31), p = 0,0013).

Debido a que el marco de SDT es estático a lo largo del tiempo, investigamos más a fondo cómo el sesgo afectó a varios componentes del proceso de decisión dinámica al ajustar diferentes variantes del modelo de difusión de deriva (DDM) a los datos de comportamiento (Figura 1B, C) (Ratcliff y McKoon, 2008). ). El DDM postula que las decisiones perceptivas se alcanzan acumulando evidencia sensorial ruidosa hacia uno de los dos límites de decisión que representan las alternativas de elección. Cruzar uno de estos límites puede desencadenar un informe de comportamiento explícito para indicar la decisión (para respuestas de objetivo presente en nuestro experimento), o permanecer implícito (es decir, sin respuesta activa, para decisiones de objetivo ausente en nuestro experimento). El DDM captura el proceso de decisión dinámica mediante la estimación de parámetros que reflejan la tasa de acumulación de evidencia (tasa de deriva), la separación entre los límites, así como el tiempo necesario para la codificación del estímulo y la ejecución de la respuesta (tiempo sin decisión) (Ratcliff y McKoon, 2008). El DDM puede estimar estos parámetros basándose en la forma de las distribuciones de RT para decisiones informadas activamente (objetivo-presente) junto con el número total de ensayos en los que no se produjo respuesta (es decir, decisiones implícitas de objetivo-ausente) (Ratcliff et al. , 2018).

Ajustamos dos variantes del DDM para distinguir entre dos posibles mecanismos que pueden provocar un cambio en el sesgo de elección: uno en el que el punto de partida de la acumulación de evidencia se acerca a uno de los límites de decisión ('modelo de punto de partida', Figura 1B) (Mulder et al., 2012), y uno en el que la tasa de deriva en sí está sesgada hacia uno de los límites (de Gee et al., 2017) ('modelo de sesgo de deriva', ver Figura 1C, referido como criterio de deriva por Ratcliff y McKoon (2008)). El parámetro de sesgo de deriva se determina estimando la contribución de una constante independiente de la evidencia agregada a la deriva (Figura 2D). En los dos modelos respectivos, liberamos el parámetro de sesgo de deriva (db, ver Figura 2D) para las dos condiciones mientras se mantiene el punto de inicio (z) fijo en todas las condiciones (para el modelo de sesgo de deriva), o viceversa (para el punto de partida modelo). Permitir que solo un parámetro a la vez variara libremente entre las condiciones nos permitió comparar directamente los modelos sin tener que penalizar a ninguno de los modelos por el número de parámetros libres. Estos modelos alternativos hacen diferentes predicciones sobre la forma de las distribuciones de RT en combinación con los índices de respuesta: un cambio en el punto de partida da como resultado más opciones de presencia de objetivo, particularmente para RT cortos, mientras que un cambio en el sesgo de deriva aumenta con el tiempo, lo que resulta en más opciones de objetivo-presente también para RT más largos (de Gee et al., 2017 Ratcliff y McKoon, 2008 Urai et al., 2018). Las distribuciones de RT por encima y por debajo de los gráficos de acumulación de evidencia en la Figura 1B y C ilustran estos diferentes efectos. En ambos modelos, todos los parámetros relacionados con la ausencia de sesgo (tasa de deriva v, separación de los límites ay tiempo de no decisión u + w, ver Figura 2D) también pudieron variar según la condición.

Descubrimos que el modelo de punto de partida proporcionaba un ajuste peor a los datos que el modelo de sesgo de deriva (modelo de punto de partida, Criterio de información bayesiano (BIC) = 7938 modelo de sesgo de deriva, BIC = 7926, Figura 2E, consulte Materiales y métodos para obtener más detalles) . Específicamente, para 15/16 participantes, el modelo de sesgo de deriva proporcionó un mejor ajuste que el modelo de punto de partida, para 12 de los cuales delta BIC & gt6, lo que indica una fuerte evidencia a favor del modelo de sesgo de deriva (Kass y Raftery, 1995). Sin embargo, a pesar del BIC más bajo para el modelo de sesgo de deriva, notamos que, a simple vista, ambos modelos proporcionan ajustes igualmente razonables para las distribuciones de RT de un solo participante (Figura 2 — Figura 2). Por último, comparamos estos dos modelos con un modelo en el que tanto el sesgo de deriva como el punto de partida se fijaron en las condiciones, al tiempo que permitían que los parámetros no relacionados con el sesgo variaran según la condición. Este modelo proporcionó la bondad de ajuste más baja (delta BIC & gt6 para ambos modelos para todos los participantes).

Dado el rendimiento superior del modelo de sesgo de deriva (en términos de BIC), caracterizamos aún más la toma de decisiones bajo la manipulación del sesgo utilizando estimaciones de parámetros de este modelo (ver más abajo donde revisamos la inverosimilitud del modelo de punto de partida al inspeccionar la falta de pre -Efectos basales del estímulo en la corteza sensorial o motora). La tasa de deriva, que refleja la capacidad de los participantes para discriminar objetivos y no objetivos, fue algo mayor en la condición conservadora en comparación con la liberal (liberal: v = 2,39 (de 1,07), frente a conservadora: v = 3,06 (de 1,16), p = 0,0001 , prueba de permutación, Figura 2F, barras de la izquierda). Correlaciones casi perfectas entre los participantes en ambas condiciones entre la tasa de deriva de DDM y SDT D' proporcionó una fuerte evidencia de que el parámetro de la tasa de deriva captura la sensibilidad perceptiva (liberal, r = 0,98, p = 1e –10 conservador, r = 0,96, p = 5e –9, ver Figura 2 — suplemento de figura 3A).Con respecto a los parámetros de sesgo de DDM, el parámetro de punto de partida con condición fija en el modelo de sesgo de deriva fue menor que la mitad de la separación del límite (es decir, más cercano al límite de ausencia del objetivo (z = 0.24 (sd 0.06), p & lt0.0001, comparado con 0.5 )), lo que indica un punto de partida conservador general a través de las condiciones (Figura 2 — suplemento de figura 3D), en línea con el criterio de SDT positivo general (ver Figura 2C, panel derecho). Sin embargo, sorprendentemente, mientras que el parámetro de sesgo de deriva no fue en promedio diferente de cero en la condición conservadora (db = –0.04 (sd 1.17), p = 0.90), el sesgo de deriva fue fuertemente positivo en la condición liberal (db = 2.08 (sd 1.0), p = 0.0001 liberal vs conservador: p = 0.0005 Figura 2F, barras de la derecha). El punto de partida conservador general combinado con un sesgo de deriva neutral específico de la condición explicó el sesgo de decisión conservador (cuantificado por el criterio de SDT) en la condición conservadora (Figura 2C). Asimismo, en la condición liberal, el punto de partida conservador general combinado con un sesgo de deriva positivo específico de la condición (empujando la deriva hacia el límite objetivo-presente) explicó el sesgo neutral observado con el criterio SDT (C alrededor de cero para liberal, consulte la Figura 2C).

Convergente con estos resultados de modelado, el sesgo de deriva estuvo fuertemente anti-correlacionado entre los participantes con el criterio de SDT (r = –0.89 para ambas condiciones, p = 4e –6) y el tiempo de reacción promedio (liberal, r = –0.57, p = 0.02 conservador , r = –0,82, p = 1e –4, ver Figura 2 — suplemento de figura 3B C). Las fuertes correlaciones entre la tasa de deriva y D' por un lado, y el sesgo de deriva y C por otro, proporcionar evidencia convergente de que los marcos SDT y DDM capturan mecanismos subyacentes similares, mientras que el DDM captura adicionalmente la naturaleza dinámica de la toma de decisiones perceptual al vincular la manipulación del sesgo de decisión con el proceso de acumulación de evidencia en sí. Como control, también correlacionamos el punto de partida con el criterio, y encontramos que las correlaciones eran algo más débiles en ambas condiciones (liberal, r = –0,75. Conservador, r = –0,77), lo que sugiere que el parámetro de sesgo de deriva capturó mejor el sesgo de decisión como instanciado por SDT.

Finalmente, la manipulación del sesgo también afectó a otros dos parámetros en el modelo de sesgo de deriva que no estaban directamente relacionados con la acumulación de evidencia sensorial: la separación de los límites fue leve pero confiablemente más alta durante la condición liberal en comparación con la conservadora (p & lt0,0001), y la no decisión el tiempo (que comprende el tiempo necesario para la codificación sensorial y la ejecución de la respuesta motora) fue más corto durante la fase liberal (p & lt0.0001) (Figura 2 — suplemento de figura 3D). En conclusión, la variante de sesgo de deriva del modelo de difusión de deriva explicó mejor cómo los participantes se ajustaron a las manipulaciones del sesgo de decisión. En las siguientes secciones, utilizamos el análisis espectral de las grabaciones de EEG simultáneas para identificar un mecanismo neural plausible que refleja la acumulación de evidencia sensorial sesgada.

Las texturas relevantes para la tarea inducen respuestas relacionadas con los estímulos en la corteza visual

La acumulación de evidencia sensorial en una tarea de detección de un objetivo visual presumiblemente se basa en señales relacionadas con el estímulo procesadas en la corteza visual. Tales señales relacionadas con los estímulos se reflejan típicamente en la actividad de la población cortical que exhibe una estructura temporal rítmica (Buzsáki y Draguhn, 2004). Específicamente, el procesamiento de abajo hacia arriba de la información visual se ha relacionado previamente con una mayor actividad electrofisiológica de alta frecuencia (& gt40 Hz, es decir, gamma) sobre la corteza visual (Bastos et al., 2015 Michalareas et al., 2016 Popov et al., 2017 van Kerkoerle et al., 2014). La Figura 3 muestra agrupaciones significativas de electrodo por tiempo por frecuencia de potencia de EEG bloqueada por estímulo, normalizada con respecto al período de referencia previo al ensayo específico de la condición (–0,4 a 0 s). Observamos un total de cuatro modulaciones distintas relacionadas con el estímulo, que emergieron después del inicio del objetivo y disminuyeron alrededor del tiempo de respuesta: dos en el rango de alta frecuencia (& gt36 Hz, Figura 3A (arriba) y Figura 3B) y dos en el rango bajo -rango de frecuencia (& lt36 Hz, Figura 3A (abajo) y Figura 3C). Primero, encontramos una modulación espacialmente focal en un rango de frecuencia estrecho alrededor de 25 Hz que refleja el potencial evocado visual en estado estable (SSVEP) que surge del arrastre por la frecuencia de estimulación visual de nuestro paradigma experimental (Figura 3A, panel inferior), así como un segunda modulación de 42 a 58 Hz que comprende el armónico del SSVEP (Figura 3A, panel superior). Ambas modulaciones de frecuencia SSVEP tienen una distribución topográfica similar (véanse los paneles de la izquierda de la Figura 3A).

Modulaciones de potencia espectral de EEG relacionadas con el procesamiento de estímulos y la respuesta motora.

Cada fila de panel representa un grupo tridimensional (electrodos por tiempo por frecuencia) de modulación de potencia, bloqueado en el tiempo tanto para el inicio de prueba (dos paneles izquierdos) como para presionar el botón (dos paneles derechos). La modulación de potencia fuera de los grupos importantes está enmascarada. La modulación se calculó como el cambio porcentual de la señal desde el período previo al estímulo específico de la condición (–0,4 a 0 s) y se promedió entre las condiciones. Los mapas topográficos del cuero cabelludo muestran la extensión espacial de los conglomerados integrando la modulación en bins de tiempo-frecuencia. Las representaciones de tiempo-frecuencia (TFR) muestran modulación integrada sobre electrodos indicada por círculos negros en los mapas del cuero cabelludo. Los tamaños de los círculos indican el peso del electrodo en términos de proporción de contenedores de tiempo-frecuencia que contribuyen al TFR. Los valores de p por encima de los mapas del cuero cabelludo indican la significación de agrupaciones corregida por comparación múltiple utilizando una prueba de permutación entre los participantes (bilateral, N = 14). Las líneas verticales continuas indican el momento del inicio de la prueba (izquierda) o la presión del botón (derecha), las líneas verticales punteadas indican el tiempo de inicio (no) del objetivo. Integr. M., modulación de potencia integrada. SSVEP: potenciales evocados visuales en estado estable. (A) (Arriba) Grupo de 42–58 Hz (armónico SSVEP). (A) (Fondo). Grupo posterior de 23-27 Hz (SSVEP). (B) Cúmulo posterior de 59-100 Hz (gamma). Los grupos en A (arriba) y B eran parte de un grupo grande (de ahí el mismo valor p), y se dividieron en base al fuerte aumento de modulación precisamente en el rango de 42 a 58 Hz. (C) Grupo de supresión de 12–35 Hz (beta) ubicado más posteriormente alineado al inicio de prueba, y más a la izquierda central cuando se alinea al presionar un botón.

En tercer lugar, observamos una modulación de potencia de 59-100 Hz (gamma) (Figura 3B), después de controlar cuidadosamente los artefactos de EEG de alta frecuencia debidos a pequeños movimientos oculares de fijación (microsacadas) al eliminar la actividad relacionada con las microsacadas de los datos (Hassler et al. ., 2011 Hipp y Siegel, 2013 Yuval-Greenberg et al., 2008), y suprimiendo la actividad EEG no neural a través de la transformación de densidad de corriente del cuero cabelludo (SCD) (Melloni et al., 2009 Perrin et al., 1989) (ver Materiales y métodos para más detalles). Es importante destacar que la topografía de la modulación gamma observada se limitó a los electrodos posteriores, en línea con el papel de la gamma en el procesamiento ascendente en la corteza visual (Ni et al., 2016). Finalmente, observamos la supresión de la actividad beta de baja frecuencia (11-22 Hz) en la corteza posterior, que típicamente ocurre en paralelo con una mayor actividad gamma inducida por estímulos (Donner y Siegel, 2011 Kloosterman et al., 2015a Meindertsma et al., 2017 Werkle-Bergner et al., 2014) (Figura 3C). Con respuesta bloqueada, este grupo fue más pronunciado sobre la corteza motora izquierda (electrodo C4), posiblemente debido a la presión del botón derecho que los participantes usaron para indicar la detección del objetivo (Donner et al., 2009). En las siguientes secciones, caracterizamos estas señales por separado para las dos condiciones, investigando las señales relacionadas con el estímulo dentro de una combinación de 11 electrodos occipito-parietales basados ​​en la mejora gamma en la Figura 3B (Oz, POz, Pz, PO3, PO4 y P1 a P6) y señales relacionadas con el motor en la supresión beta del hemisferio izquierdo (LHB) en el electrodo C4 (Figura 3C) (O'Connell et al., 2012).

Cursos de tiempo de modulación de potencia EEG consistentes con el modelo de desviación de deriva

Nuestros resultados de comportamiento sugieren que los participantes sesgaron la acumulación de evidencia sensorial en la condición liberal, en lugar de cambiar su punto de partida. A continuación, buscamos proporcionar evidencia convergente para esta conclusión examinando la actividad previa al estímulo, la actividad posterior al estímulo y la actividad del EEG relacionada con el motor. Siguiendo estudios previos, planteamos la hipótesis de que un sesgo de punto de partida se reflejaría en una diferencia en la actividad de la línea de base pre-motora entre las condiciones antes del inicio del proceso de decisión (Afacan-Seref et al., 2018 de Lange et al., 2013), y / o en una diferencia en la actividad previa al estímulo, como se ve en las señales de potencia gamma y SSVEP relacionadas con el estímulo de abajo hacia arriba (la Figura 4A muestra los grupos relevantes derivados de la Figura 3). Por lo tanto, primero investigamos la línea de tiempo de la potencia bruta en el rango SSVEP, gamma y LHB entre condiciones (ver Figura 4B). Ninguno de estos marcadores mostró una diferencia significativa en la actividad basal previa al estímulo. La comparación estadística de la actividad previa al estímulo bruta entre liberal y conservador en un intervalo de línea de base entre –0,4 y 0 s antes del inicio del ensayo arrojó p = 0,52, p = 0,51 yp = 0,91, pruebas de permutación, para las señales respectivas. Esto confirma un punto de partida muy similar de acumulación de evidencia en todas estas señales. A continuación, predijimos que un cambio en el sesgo de deriva se reflejaría en una pendiente más pronunciada de la actividad de rampa posterior al estímulo (que condujo a la decisión). Razonamos que la mejor manera de determinar dicho efecto sería basar la actividad en el intervalo anterior al inicio del estímulo (utilizando el intervalo entre –0,4 a 0 s), de modo que cualquier efecto post-estímulo que encontremos no puede explicarse por pre -diferencias de estímulo (si las hubiera). El curso temporal de la actividad post-estímulo y de respuesta bloqueada después de la línea de base se puede encontrar en la Figura 4C. Las tres señales mostraron señales divergentes entre la condición liberal y conservadora después del inicio del juicio, en consonancia con los ajustes en el proceso de acumulación de pruebas. Específicamente, observamos niveles de modulación de pico más altos para la condición liberal en las tres señales bloqueadas por estímulo (p = 0.08, p = 0.002 yp = 0.023, pruebas de permutación para SSVEP, gamma y LHB, respectivamente), y encontramos una pendiente más pronunciada hacia presione el botón para LHB (p = 0.04). Finalmente, el potencial relacionado con el evento en la corteza motora también mostró una pendiente más pronunciada hacia el informe para liberal (p = 0.07, Figura 4, fila inferior, el gráfico de línea de base no es significativo para las señales en el dominio del tiempo debido a la eliminación media durante el preprocesamiento). Tomados en conjunto, estos hallazgos proporcionan evidencia convergente de que los participantes implementaron un sesgo de decisión liberal al ajustar la tasa de acumulación de evidencia hacia el límite de elección objetivo-presente, pero no su punto de partida. En las siguientes secciones, buscamos identificar un mecanismo neuronal que podría subyacer a estos sesgos en la tasa de acumulación de evidencia.

Las manipulaciones de tareas experimentales afectan el curso temporal de las señales de EEG relacionadas con el estímulo y el motor, pero no su punto de partida.

Potencia bruta durante todo el período de referencia y los cursos de tiempo de modulación de potencia bloqueados en el tiempo para iniciar la prueba y presionar un botón. (A) Grupos de electrodos relevantes y rangos de frecuencia (de la Figura 3): SSVEP posterior, gamma posterior y beta del hemisferio izquierdo (LHB). (B) El curso temporal de la potencia bruta en un amplio intervalo alrededor del estímulo –0,8 a 0,8 s ms para estos grupos. (C) Estímulo bloqueado y respuesta bloqueada porcentual de cambio de señal desde la línea de base (período de línea de base: –0,4 a 0 s). Barras de error, SEM. La barra horizontal negra indica una diferencia significativa entre las condiciones, corregida por grupos para una comparación múltiple (p & lt0.05, dos caras). SSVEP, potencial evocado visual en estado estacionario LHB, ERP beta hemisférico izquierdo, SCD potencial relacionado con eventos, densidad de corriente del cuero cabelludo.

El sesgo liberal se refleja en el realce theta mediofrontal previo al estímulo y la supresión alfa posterior

Dada la falta de diferencias previas al estímulo (punto de partida) en los rangos de frecuencia específicos involucrados en el procesamiento del estímulo o las respuestas motoras (Figura 4B), a continuación nos enfocamos en otras diferencias previas al estímulo que podrían ser la causa principal de las diferencias posteriores al estímulo. observamos en la Figura 4C. Para identificar tales señales a una resolución de alta frecuencia, calculamos la potencia espectral en una amplia ventana de tiempo desde –1 s hasta el inicio de la prueba. Luego realizamos una prueba de permutación basada en clústeres en todos los electrodos y frecuencias en el dominio de baja frecuencia (1–35 Hz), buscando modulaciones de potencia debido a nuestras manipulaciones experimentales. El poder espectral previo al estímulo de hecho descubrió dos modulaciones distintas en la condición liberal en comparación con la conservadora: (1) modulación theta en los electrodos mediofrontales y (2) modulación alfa en los electrodos posteriores. La Figura 5A muestra la diferencia entre la condición liberal y conservadora, confirmando grupos significativos (p & lt0.05, corregido por grupos para comparaciones múltiples) de theta mejorada (2-6 Hz) en electrodos frontales (Fz, Cz, FC1 y FC2), así como alfa suprimido (8-12 Hz) en un grupo de electrodos posteriores, incluidos los 11 electrodos seleccionados previamente en base a la modulación gamma post-estímulo (Figura 3). Las dos modulaciones no estaban correlacionadas entre los participantes (r = 0.06, p = 0.82), lo que sugiere que reflejan diferentes procesos neuronales relacionados con nuestras manipulaciones de tareas experimentales. Estos hallazgos son consistentes con la literatura que apunta a un papel de theta mediofrontal como una fuente de señales de control cognitivo que se originan en la corteza prefrontal (Cohen y Frank, 2009 van Driel et al., 2012) y alfa en la corteza posterior que refleja una prueba espontánea de -fluctuaciones del juicio en el sesgo de decisión (Iemi et al., 2017). El hecho de que estos efectos previos al estímulo ocurran como una función de nuestra manipulación experimental sugiere que son un sello distintivo del ajuste de sesgo estratégico, más que un mero correlato de cambios espontáneos en el sesgo de decisión. Es importante destacar que este hallazgo implica que los humanos son capaces de controlar activamente el poder alfa previo al estímulo en la corteza visual (posiblemente a través de señales descendentes de la corteza frontal), actuando de manera plausible para sesgar la acumulación de evidencia sensorial hacia la alternativa de respuesta que maximiza la recompensa.

La adopción de un sesgo de decisión liberal se refleja en un aumento de theta frontal medio y un poder alfa pre-estímulo suprimido.

(A) Grupos significativos de modulación de potencia entre liberales y conservadores en una ventana previa al estímulo entre -1 y 0 s antes del inicio del ensayo. Al realizar una prueba de permutación basada en conglomerados en todas las frecuencias (1–35 Hz) y electrodos, surgieron dos conglomerados significativos: theta (2–6 Hz, arriba) y alfa (8–12 Hz, abajo). Paneles de la izquierda: espectros de potencia bruta de la actividad neuronal previa al estímulo para conservadores y liberales por separado en los grupos significativos (con fines ilustrativos), Paneles intermedios: espectro de potencia bruta liberal - conservador. La barra horizontal negra indica un rango de frecuencia estadísticamente significativo (p & lt0.05, corregido por conglomerados para comparaciones múltiples, bilateral). Paneles derechos: correspondientes mapas topográficos del cuero cabelludo liberal - conservador de la diferencia de potencia bruta previa al estímulo entre las condiciones para la potencia theta del EEG (2–6 Hz) y la potencia alfa (8–12 Hz). Trazar convenciones como en la Figura 3. Barras de error, SEM entre los participantes (N = 15). (B) Distribuciones de densidad de probabilidad de los valores de potencia alfa de un solo ensayo para ambas condiciones, promediados entre los participantes.

El poder alfa previo al estímulo está relacionado con las respuestas gamma corticales

A continuación, preguntamos cómo la supresión de la actividad alfa previa al estímulo podría sesgar el proceso de acumulación de evidencia sensorial. Una posibilidad es que la supresión alfa influya en la acumulación de evidencia al modular la susceptibilidad de la corteza visual a la estimulación sensorial, un fenómeno denominado "excitabilidad neuronal" (Iemi et al., 2017 Jensen y Mazaheri, 2010). Exploramos esta posibilidad utilizando un modelo de ganancia de respuesta teórica formulado por Rajagovindan y Ding (2011). Este modelo postula que la relación entre la entrada sináptica total que recibe un conjunto neuronal y la actividad de salida total que produce se caracteriza por una función sigmoidea (Figura 6A), una noción que es biológicamente plausible (Destexhe et al., 2001 Freeman, 1979 ). En este modelo, la entrada sináptica total en la corteza visual consta de dos componentes: (1) entrada sensorial (es decir, debido a la estimulación sensorial) y (2) fluctuaciones en curso en la actividad neuronal generada endógenamente (es decir, no relacionada con los sentidos). En nuestro experimento, se puede suponer que la entrada sensorial en la corteza visual es idéntica en todos los ensayos, porque se presentó el mismo estímulo sensorial en cada ensayo (consulte la Figura 2A). Por el contrario, se cree que la entrada endógena varía de una prueba a otra, lo que refleja las fluctuaciones en los procesos cognitivos de arriba hacia abajo, como la atención. Se supone que estas fluctuaciones se reflejan en la fuerza de la supresión de potencia alfa, de modo que un alfa más débil se asocia con una mayor atención (Figura 6B). Dada la entrada constante sensorial y endógena variable combinada en cada prueba (ver el eje horizontal en la Figura 6A), la fuerza de las respuestas de salida de la corteza visual está determinada en gran medida por las variaciones de prueba a prueba en la potencia alfa (ver el eje vertical en la Figura 6A). Además, la forma sigmoidea de la función de entrada-salida da como resultado un rango efectivo en el centro del lado de entrada de la función que produce las respuestas de salida inducidas por estímulos más fuertes desde que la curva sigmoidea es más empinada. Matemáticamente, el efecto de la entrada endógena sobre las respuestas de salida inducidas por estímulos (ver intervalo marcado en la Figura 6A) se puede expresar como la derivada de primer orden o pendiente del sigmoide en la Figura 6A, que se conoce como ganancia de respuesta por Rajagovindan y Ding. (2011). Esta derivada se representa en la Figura 6B (líneas continuas azules y rojas) a través de los niveles de potencia alfa pre-estímulo, prediciendo una relación en forma de U invertida entre alfa y ganancia de respuesta en la corteza visual.

El poder alfa previo al estímulo está relacionado con las respuestas gamma corticales.

(A) Modelo de ganancia de respuesta teórica que describe la transformación de la actividad de entrada endógena e inducida por estímulos (denotado por SX y Snorte respectivamente) a la actividad de producción total (denotada por O (SX + Snorte)) en la corteza visual por una función sigmoidea. Diferentes rangos operativos alfa están asociados con funciones de entrada-salida con diferentes pendientes debido a los cambios correspondientes en la salida total. (B) Las respuestas de salida ligadas a alfa (líneas continuas) se formalizan como la primera derivada (pendiente) de las funciones sigmoidales (líneas de puntos), lo que da como resultado relaciones en forma de U invertida (gaussiana) entre alfa y gamma, lo que implica una ganancia de respuesta más fuerte en el liberal que en la condición conservadora. (C) Datos empíricos correspondientes que muestran la modulación gamma (mismas unidades de cambio de señal porcentual que en la Figura 3) como una función del intervalo alfa. La ubicación en el eje x de cada grupo alfa se tomó como el alfa medio de los ensayos asignados a cada grupo y se promedió entre los sujetos. (D-F) Pruebas de predicción de modelos. (D) Potencia alfa bruta previa al estímulo para ambas condiciones, promediada entre los sujetos. (mi) Modulación de potencia gamma posterior al estímulo para ambas condiciones promediadas en los dos grupos alfa intermedios (5 y 6) en el panel C. (F) Liberal: diferencia conservadora entre las curvas de ganancia de respuesta que se muestran en el panel C, centradas en el intervalo alfa. Barras de error, SEM intraindividual entre los participantes (N = 14).

Figura 6: datos de origen 1

Archivo .sav de SPSS que contiene los datos utilizados en los paneles C, E y F.

Con respecto a nuestras condiciones experimentales, el modelo no solo predice que la supresión del preestímulo alfa observada en la condición liberal refleja un cambio en el rango operativo de alfa (ver Figura 5B), sino que también aumenta la producción máxima de la corteza visual ( un cambio de la línea roja a la azul en la Figura 6A). Por lo tanto, la diferencia entre las condiciones de estímulo no se modela utilizando una única función de entrada-salida, sino que necesita un mecanismo adicional que cambie la relación de entrada-salida en sí. Se desconoce la naturaleza exacta de este mecanismo (ver también Discusión). Rajagovindan y Ding sugieren que los mecanismos de arriba hacia abajo modulan la actividad neuronal de prestimulus en curso para aumentar la pendiente de la función sigmoidea, pero a pesar de la actividad theta del frente medio que observamos, la evidencia de esta hipótesis es algo esquiva. No tenemos medios para establecer directamente si existe esta relación, y podemos simplemente reflexionar sobre el hecho de que este cambio en la función de entrada-salida es necesario para capturar los efectos específicos de la condición de la relación de entrada-salida, tanto en los datos de Rajagovindan como en Ding (2011) y en nuestros propios datos. Por lo tanto, a medida que el rango operativo de alfa se desplaza hacia la izquierda de conservador a liberal, la asíntota superior en la Figura 6A se mueve hacia arriba de manera que aumenta la actividad de producción máxima total. Esto, a su vez, afecta la relación en forma de U invertida entre alfa y ganancia en la corteza visual (línea azul en la Figura 6B), lo que lleva a una curva de respuesta más pronunciada en la condición liberal que se asemeja a una función gaussiana (en forma de campana).

Para investigar la ganancia de respuesta sensorial en diferentes niveles alfa en nuestros datos, usamos la actividad gamma posterior al estímulo (ver Figura 3B) como un proxy para la ganancia de salida ligada a alfa en la corteza visual (Bastos et al., 2015 Michalareas et al., 2016 Ni et al., 2016 Popov et al., 2017 van Kerkoerle et al., 2014). Aprovechamos la gran cantidad de ensayos por participante por condición (rango de 543 a 1391 ensayos) clasificando los ensayos de cada participante en diez contenedores de igual tamaño que varían de alfa débil a fuerte, por separado para las dos condiciones. Luego calculamos la modulación de potencia gamma promedio dentro de cada grupo alfa y finalmente trazamos la gamma promediada por los participantes en los grupos alfa para cada condición en la Figura 6C (consulte Materiales y métodos para obtener más detalles). De hecho, esto reveló una relación en forma de U invertida entre alfa y gamma en ambas condiciones, con una curva más pronunciada para la condición liberal.

Para evaluar la capacidad del modelo para explicar los datos, probamos estadísticamente tres predicciones derivadas del modelo. En primer lugar, el modelo predice un poder alfa previo al estímulo promedio más bajo para los liberales que para los conservadores debido al cambio en el rango operativo de alfa. Esto se confirmó en la Figura 6D (p = 0,01, prueba de permutación, ver también la Figura 5). En segundo lugar, el modelo predice una respuesta gamma más fuerte para liberales que para conservadores alrededor del pico de la curva de ganancia (el centro del rango alfa efectivo, ver Figura 6B), que de hecho observamos (p = 0.024, prueba de permutación en el promedio de los dos contenedores alfa del medio) (Figura 6E). Finalmente, el modelo predice que la diferencia entre las curvas de ganancia (cuando están alineadas sobre sus rangos efectivos en el eje x usando el número de bin alfa, como se muestra en la Figura 6 — figura suplementaria 1A) también se asemeja a una curva gaussiana (Figura 6— figura suplemento 1B). De acuerdo con esta predicción, observamos un efecto de interacción entre la condición (liberal, conservadora) y el número de intervalo (1-10) utilizando un contraste gaussiano estándar en un ANOVA de medidas repetidas de dos vías (F (1,13) = 4.6, p = 0,051, η 2 parcial = 0,26). La Figura 6F ilustra este hallazgo mostrando la diferencia entre las dos curvas en la Figura 6C en función del número de intervalo alfa (consulte la Figura 6, el suplemento de figura 1C para las curvas de ambas condiciones en función del número de intervalo alfa). Pruebas separadas posteriores para cada condición confirmaron una relación significativa en forma de U entre alfa y gamma en la condición liberal con un tamaño de efecto grande (F (1,13) = 7.7, p = 0.016, η 2 parcial = 0.37), pero no efecto significativo en la condición conservadora con sólo un tamaño de efecto pequeño (F (1,13) = 1,7, p = 0,22, η 2 parcial = 0,12), utilizando ANOVA de medidas repetidas unidireccionales con alfa bin (contraste gaussiano) como factor de interés.

Tomados en conjunto, estos hallazgos sugieren que la supresión alfa observada en el liberal en comparación con la condición conservadora impulsó la actividad inducida por estímulos, lo que a su vez podría haber sesgado indiscriminadamente la acumulación de evidencia sensorial hacia el límite de decisión objetivo-presente. En la siguiente sección, investigamos un vínculo directo entre el sesgo de deriva y la actividad inducida por estímulos medida a través de gamma.

La actividad gamma cortical visual predice la fuerza del sesgo de acumulación de evidencia

Los hallazgos presentados hasta ahora sugieren que, en el comportamiento, un sesgo de decisión liberal desplaza la acumulación de evidencia hacia las respuestas del objetivo presente (sesgo de deriva en el DDM), mientras que neuronalmente suprime el pre-estímulo alfa y mejora las respuestas post-estímulo gamma. En un análisis final, preguntamos si la modulación gamma agrupada en alfa está directamente relacionada con un sesgo de deriva más fuerte. Con este fin, aplicamos nuevamente el DDM de sesgo de deriva a los datos de comportamiento de cada participante, mientras que liberamos el parámetro de sesgo de deriva no solo para las dos condiciones, sino también para los 10 contenedores alfa para los que calculamos la modulación gamma (ver Figura 6C) . Probamos directamente la correspondencia entre el sesgo de deriva de DDM y la modulación gamma utilizando la correlación de medidas repetidas (Bakdash y Marusich, 2017), que tiene en cuenta todas las observaciones repetidas entre los participantes y controla la no independencia de las observaciones recopiladas dentro de cada participante (consulte Materiales y métodos). para detalles). De hecho, la modulación gamma se correlacionó con el sesgo de deriva en ambas condiciones (liberal, r (125) = 0,49, p = 5e-09 conservador, r (125) = 0,38, p = 9e-06) (Figura 7). Probamos la solidez de estas correlaciones excluyendo los puntos de datos que más contribuyeron a las correlaciones (según lo determinado con la distancia de Cook) y obtuvimos resultados cualitativamente similares, lo que indica que estas correlaciones no fueron impulsadas por valores atípicos (Figura 7, consulte Materiales y métodos para obtener más detalles). . Para descartar que el punto de partida podría explicar esta correlación, repetimos este análisis controlando el punto de partida de la acumulación de evidencia estimada por intervalo alfa dentro del modelo del punto de partida. Con este fin, hicimos una regresión de ambos parámetros de sesgo en gamma. Fundamentalmente, encontramos que en ambas condiciones el sesgo del punto de partida no predijo de forma única gamma al controlar el sesgo de deriva (liberal: F (1,124) = 5.8, p = 0.017 para el sesgo de deriva, F (1,124) = 0.3, p = 0.61 para el sesgo de derivación punto conservador: F (1,124) = 8.7, p = 0.004 para el sesgo de deriva, F (1,124) = 0.4, p = 0.53 para el punto de partida. Este hallazgo sugiere que el modelo de sesgo de deriva supera al modelo del punto de partida cuando se correlaciona con la potencia gamma. Como control final, también realizamos este análisis para la modulación de potencia SSVEP (23-27 Hz) (ver Figura 3B, abajo) y encontramos una relación similar en forma de U invertida entre alfa y SSVEP para ambas condiciones (Figura 7 — figura suplemento 1A), pero sin correlación con el sesgo de deriva (liberal, r (125) = 0,11, p = 0,72, conservador, r (125) = 0,22, p = 0,47) (Figura 7 — figura del suplemento 1B) o con el punto de partida ( liberal, r (125) = 0.08, p = 0.02, conservador, r (125) = 0.22, p = 0.95). Esto sugiere que el SSVEP está acoplado de manera similar a alfa como el gam inducido por estímulos ma, pero se ve menos afectado por las condiciones experimentales y no predice los cambios de sesgo de decisión. En conjunto, estos resultados sugieren que la modulación gamma agrupada en alfa subyace a la acumulación de evidencia sensorial sesgada.

La modulación gamma agrupada en alfa se correlaciona con el sesgo de acumulación de evidencia.

Correlación de medidas repetidas entre la modulación gamma y el sesgo de deriva para las dos condiciones. Cada círculo representa la modulación gamma de un participante dentro de un intervalo alfa. El sesgo de deriva y los escalares de modulación gamma se residualizaron eliminando el promedio dentro de cada participante y condición, eliminando así el rango específico en el que operaban los valores de los participantes. Las cruces indican los puntos de datos que fueron más influyentes para la correlación, identificados utilizando la distancia de Cook. Las correlaciones permanecieron sin cambios cualitativos cuando se excluyeron estos puntos de datos (liberal, r (120) = 0,46, p = 8e-07 conservador, r (121) = 0,27, p = 0,0009) Barras de error, intervalos de confianza del 95% después de promediar entre los participantes.

Figura 7: datos de origen 1

Archivo MATLAB .mat que contiene los datos utilizados.

Finalmente, preguntamos hasta qué punto el theta tónico mediofrontal mejorado puede haber mediado la relación entre la gamma agrupada en alfa y el sesgo de deriva. Para responder a esta pregunta, ingresamos el sesgo de deriva en un ANOVA de medidas repetidas de dos vías con factores theta y potencia gamma (todas las variables agrupadas en alfa), pero no encontramos evidencia de mediación de la relación de sesgo de deriva gamma por theta midfrontal (liberal, F (1,13) = 1,3, p = 0,25 conservador, F (1,13) = 0,003, p = 0,95). Al mismo tiempo, la relación de sesgo de deriva gamma se mantuvo cualitativamente sin cambios al controlar por theta (liberal, F (1,13) = 48,4, p & lt0,001 conservador, F (1,13) = 19,3, p & lt0,001). Por lo tanto, la theta mediofrontal mejorada en la condición liberal refleja plausiblemente una señal de arriba hacia abajo relacionada con la atención que indica la necesidad de control cognitivo para evitar perder objetivos, pero su amplitud no parecía estar directamente relacionada con la acumulación de evidencia sensorial mejorada, como se encontró para gamma. Este último hallazgo sugiere que la theta mejorada en la condición liberal sirvió como una señal de alarma que indica la necesidad de un cambio en la estrategia de respuesta, sin especificar exactamente cómo se iba a implementar este cambio (Cavanagh y Frank, 2014).


Introducción

Se ha informado que el color, uno de los aspectos más poderosos del medio ambiente, promueve la adaptación humana al medio ambiente y mejora la forma espacial [1]. El color puede cambiar el tamaño y la calidez percibidos de una habitación, provocar asociaciones, mejorar la introversión o la extroversión, incitar la ira o la relajación e influir en las respuestas fisiológicas [2], [3]. Se han realizado varios estudios para estudiar el impacto psicológico del color. Por ejemplo, mientras que los colores cálidos proporcionan activación y estimulación visual, los colores fríos comunican sutileza y relajación.

El entorno visual es un elemento vital que influye en la moral del personal del hospital y los estudios de productividad incluso han informado que un entorno visual mejorado ha producido tasas de recuperación más rápidas hasta en un 10%. De hecho, estas mejoras se han atribuido a elementos particulares del entorno visual que incluyen el uso del color apropiado en el diseño de interiores. En el diseño de hospitales, el color puede tener un impacto en las percepciones y respuestas de las personas al medio ambiente y también afectar las tasas de recuperación de los pacientes, mejorando la calidad y la experiencia general de los pacientes, el personal y los visitantes. El color también es una herramienta poderosa para la codificación, la navegación y la orientación; el color también puede promover una sensación de bienestar e independencia.

Existen numerosos estudios en el campo de la psicología que demuestran la relación entre el comportamiento humano y el color. Sin embargo, los estudios de color en el campo del diseño ambiental son casi inexistentes. Nourse y Welch [4] probaron el hallazgo de Wilson [5] de que el rojo es más excitante que el verde. Jacobs y Hustmyer [6] encontraron que el rojo era significativamente más excitante que el azul o el amarillo, y el verde más que el azul. Fehrman y Fehrman [7] informaron sobre los efectos del azul, rojo y amarillo en el desempeño de la tarea y la excitación para la selección de color efectiva de los espacios interiores. Kwallek, Lewis y Robbins [8] examinaron los efectos de una oficina de color rojo frente a una azul sobre la productividad y el estado de ánimo de los sujetos. Kwallek y Lewis [9] investigaron los efectos del color ambiental sobre el género utilizando una oficina roja, blanca y verde. El experimento evaluó el desempeño de los trabajadores en la corrección de pruebas y el estado de ánimo en entornos de oficina de diferentes colores. Weller y Livingston [10] examinaron el efecto del papel de color sobre las respuestas emocionales obtenidas de los cuestionarios. Se diseñaron y compilaron seis cuestionarios diferentes en este orden: rosa-culpable, rosa-no culpable azul-culpable, azul-no culpable blanco-culpable, blanco-no culpable. Boyatzis y Varghese [11] investigaron las asociaciones de colores y emociones de los niños. Descubrieron que los niños mostraban emociones positivas a los colores brillantes (rosa, rojo, amarillo, verde, morado o azul) y emociones negativas a los colores oscuros (marrón, negro, gris). Hemphill [12] examinó las asociaciones de colores y emociones de los adultos y las comparó con los hallazgos de Boyatzis y Varghese [11].

La investigación científica significa revisar un concepto a través de la observación con el fin de probar una teoría o hipótesis con el fin de explicar un fenómeno. La teoría y las hipótesis presupuestas se prueban mediante observaciones sistemáticas para hacer una explicación general de los fenómenos naturales. Los experimentos son útiles para explorar los fenómenos porque implican probar hipótesis e investigar las relaciones de causa y efecto [13]. Los experimentos se caracterizan por la manipulación de variables independientes y la identificación de posibles relaciones de causa y efecto entre una variable independiente y una variable dependiente. Los tipos de experimentos se clasifican según el grado de asignación aleatoria de sujetos a las diversas condiciones; son verdaderos experimentos, cuasi-experimentos y experimentos de un solo sujeto. Los verdaderos experimentos requieren una asignación aleatoria imparcial de sujetos a grupos de tratamiento y la capacidad del investigador para manipular directamente variables independientes. Los experimentos rigurosos se realizan típicamente en un laboratorio donde es posible controlar las variables. La principal ventaja de estos experimentos es su capacidad para establecer relaciones causales. Los cuasiexperimentos no establecen relaciones causales en el mismo grado que los experimentos verdaderos, ya que los experimentos de campo se encuentran habitualmente con factores incontrolables. La ventaja de los cuasi-experimentos es su mayor generalización debido a su naturalidad en comparación con la artificialidad de los experimentos verdaderos [14].

Según estudios anteriores, la tendencia constante es que el azul y el verde son los colores más preferidos. Sin embargo, la mayoría de los estudios de preferencia de color no lograron controlar las variables de confusión como los atributos de color [15], [16]. Un estudio de preferencia de color bien controlado de pacientes psicológicos parece no existir. Para abordar las limitaciones encontradas en investigaciones anteriores, este estudio es el primero en utilizar el diseño experimental para proporcionar una base para los estudios de color. Esta investigación avanza en la comprensión del valor del color en una sala de asesoramiento mediante el estudio de las percepciones del color de los pacientes psicológicos. Este conocimiento debería facilitar mejoras en el diseño de hospitales. Los objetivos principales de este estudio son: 1) proponer un enfoque de investigación de diseño de color basado en experimentos, 2) crear una solución de optimización en el uso del diseño de color.


Molly Crockett: "La neurociencia de la toma de decisiones morales"

Imagínese que pudiéramos desarrollar una droga precisa que amplifique la aversión de las personas a dañar a otros con esta droga, no dañará a una mosca, todos los que la toman se vuelven como monjes budistas. ¿Quién debería tomar este medicamento? Sólo criminales convictos: ¿personas que han cometido delitos violentos? ¿Deberíamos ponerlo en el suministro de agua? Estas son preguntas normativas. Estas son preguntas sobre lo que se debe hacer. Me siento muy mal preparado para responder estas preguntas con la capacitación que tengo, pero estas son conversaciones importantes entre disciplinas. Los psicólogos y neurocientíficos deben hablar con los filósofos sobre esto. Estas son conversaciones que necesitamos tener porque no queremos llegar al punto en el que tenemos la tecnología pero no hemos tenido esta conversación, porque entonces podrían suceder cosas terribles.

MOLLY CROCKETT es profesora asociada en el Departamento de Psicología Experimental de la Universidad de Oxford Wellcome Trust Postdoctoral Fellow, Wellcome Trust Center for Neuroimaging. Molly Crockett's Borde Página Bio

LA NEUROCIENCIA DE LA TOMA DE DECISIONES MORALES

Soy neurocientífico de la Universidad de Oxford en el Reino Unido. Me interesa la toma de decisiones, específicamente las decisiones que involucran compensaciones, por ejemplo, compensaciones entre mi propio interés y los intereses de otras personas, o compensaciones entre mis deseos presentes y mis metas futuras.

Un caso de estudio para esto es la toma de decisiones morales. Cuando podemos ver que hay una opción egoísta y podemos ver que hay una opción altruista o cooperativa, podemos razonar a través de la decisión, pero también hay sentimientos viscerales sobre lo que está bien y lo que está mal. He estudiado la neurobiología de la toma de decisiones morales, específicamente cómo diferentes sustancias químicas en nuestro cerebro (neuromoduladores) pueden moldear el proceso de tomar decisiones morales y empujarnos de una forma u otra cuando razonamos y decidimos.

Los neuromoduladores son sustancias químicas del cerebro. Hay varios sistemas neuromoduladores diferentes que cumplen funciones diferentes. Los eventos en el mundo activan estos sistemas y luego se infiltran en diferentes regiones del cerebro e influyen en la forma en que se procesa la información en esas regiones. Todos ustedes tienen experiencia con neuromoduladores. Algunos de ustedes están tomando tazas de café en este momento. Muchos de ustedes probablemente tomaron vino con la cena anoche. Quizás algunos de ustedes tengan otras experiencias que sean un poco más interesantes.

Pero no es necesario consumir drogas o alcohol para influir en su neuroquímica. También puede influir en su neuroquímica a través de eventos naturales: el estrés influye en su neuroquímica, sexo, ejercicio, cambios en su dieta. Hay todas estas cosas en el mundo que se alimentan de nuestro cerebro a través de estos sistemas químicos. Me he interesado en estudiar si cambiamos estos químicos en el laboratorio, ¿podemos causar cambios en el comportamiento de las personas y en su toma de decisiones?

Una cosa a tener en cuenta acerca de los efectos de estos diferentes químicos en nuestro comportamiento es que los efectos aquí son sutiles. Los tamaños del efecto son realmente pequeños. Esto tiene dos consecuencias para la investigación en esta área. La primera es que debido a que los tamaños del efecto son tan pequeños, es probable que la literatura publicada al respecto no tenga la suficiente potencia. Probablemente haya muchos falsos positivos por ahí. Oímos anteriormente que hay mucho pensamiento sobre esto en la ciencia, no solo en la psicología sino en toda la ciencia sobre cómo podemos hacer experimentos con mejor potencia y cómo podemos crear un conjunto de datos que nos dirán lo que está sucediendo.

La otra cosa, y esto es lo que me ha interesado, es que debido a que los efectos de los neuromoduladores son tan sutiles, necesitamos medidas precisas en el laboratorio de los comportamientos y procesos de decisión que nos interesan. Es solo con medidas precisas que vamos a ser capaces de captar estos efectos sutiles de la química cerebral, que tal vez a nivel individual no van a hacer una diferencia dramática en la personalidad de alguien, pero a nivel agregado, en comportamientos colectivos como la cooperación y el público. problemas de bienes, estos pueden llegar a ser importantes a escala mundial.

¿Cómo podemos medir la toma de decisiones morales en el laboratorio de una manera precisa, y también de una manera en la que podamos estar de acuerdo en que en realidad es moral? Éste es un punto importante. Un gran desafío en esta área es que hay mucho desacuerdo sobre lo que constituye un comportamiento moral. ¿Qué es moral? Escuchamos antes sobre la cooperación; tal vez algunas personas piensen que es una decisión moral, pero tal vez otras personas no. Ese es un problema real para lograr que la gente coopere.

Primero tenemos que elegir un comportamiento en el que todos estemos de acuerdo que es moral, y en segundo lugar tenemos que medirlo de una manera que nos diga algo sobre el mecanismo. Queremos tener estos ricos conjuntos de datos que nos informen sobre estas diferentes partes móviles, estas diferentes piezas del rompecabezas, y luego podemos ver cómo se asignan a diferentes partes del cerebro y diferentes sistemas químicos.

Lo que voy a hacer durante los próximos 20 minutos es llevarlos a través de mi proceso de pensamiento durante los últimos años. Probé un montón de formas diferentes de medir los efectos de la neuroquímica en lo que en un momento creo que es la toma de decisiones morales, pero luego resulta que tal vez no sea la mejor manera de medir la moralidad. Y les mostraré cómo traté de acercarme a formas más avanzadas y sofisticadas de medir las cogniciones y emociones que nos importan en este contexto.

Cuando comencé este trabajo hace varios años, estaba interesado en el castigo y los juegos económicos que puedes usar para medir el castigo; si alguien te trata injustamente, puedes gastar un poco de dinero para quitarle dinero. Estaba interesado específicamente en los efectos de una sustancia química cerebral llamada serotonina sobre el castigo. Los problemas de los que hablaré aquí no son específicos de la serotonina, pero se aplican a esta pregunta más importante de cómo podemos cambiar la toma de decisiones morales.

Cuando comencé este trabajo, la opinión predominante sobre el castigo era que el castigo era un comportamiento moral, un castigo moralista o altruista en el que se sufre un costo para hacer cumplir una norma social para un bien mayor. Resultó que la serotonina era una sustancia química interesante para estudiar en este contexto porque la serotonina tiene una larga tradición de estar asociada con el comportamiento prosocial. Si aumenta la función de la serotonina, esto hace que las personas sean más prosociales. Si agota o deteriora la función de la serotonina, esto hace que las personas sean antisociales. Si sigue la lógica de que el castigo es algo moral, entonces si aumenta la serotonina, eso debería aumentar el castigo. Lo que realmente vemos en el laboratorio es el efecto contrario. Si aumenta la serotonina, la gente castiga menos y si disminuye la serotonina, la gente castiga más.

Eso complica un poco la idea de que el castigo es un acto de mentalidad exclusivamente prosocial. Y esto tiene sentido si simplemente haces una introspección en los tipos de motivaciones por las que pasas si alguien te trata injustamente y tú lo castigas. No sé ustedes, pero cuando eso me pasa a mí no estoy pensando en hacer cumplir una norma social o el bien común, solo quiero que ese chico sufra, solo quiero que se sienta mal porque me hizo sentir mal.

La neuroquímica agrega una capa interesante a esta gran pregunta de si el castigo está motivado prosocialmente, porque de alguna manera es una forma más objetiva de verlo. La serotonina no tiene una agenda de investigación, es solo una sustancia química. Teníamos todos estos datos y comenzamos a pensar de manera diferente sobre las motivaciones del llamado castigo altruista. Eso inspiró un estudio puramente conductual donde le damos a las personas la oportunidad de castigar a quienes se comportan injustamente con ellos, pero lo hacemos en dos condiciones. Uno es un caso estándar en el que alguien se comporta injustamente con otra persona y luego esa persona puede castigarlo. Todos tienen información completa y el tipo que es injusto sabe que está siendo castigado.

Luego agregamos otra condición, donde le damos a la gente la oportunidad de castigar en secreto: castigo oculto. Puedes castigar a alguien sin que sepa que ha sido castigado. Todavía sufren una pérdida financiera, pero debido a que ocultamos el tamaño de la apuesta, el tipo que está siendo castigado no sabe que está siendo castigado. El castigador obtiene la satisfacción de saber que el malo recibe menos dinero, pero no se hace cumplir ninguna norma social.

Lo que encontramos es que la gente todavía castiga mucho en la condición de castigo oculto. Aunque las personas castigarán un poco más cuando sepan que el tipo que está siendo castigado sabrá que está siendo castigado (a la gente sí le importa la aplicación de las normas) muchos comportamientos de castigo pueden explicarse por el deseo de que el infractor de normas tenga un menor recompensa al final. Esto sugiere que el castigo es potencialmente una mala manera de estudiar la moralidad porque las motivaciones detrás del castigo son, en gran parte, rencorosas.

Otro conjunto de métodos que hemos utilizado para analizar la moralidad en el laboratorio y cómo está moldeada por la neuroquímica son los problemas del carrito, el pan y la mantequilla de la investigación en psicología moral. Estos son escenarios hipotéticos en los que se les pregunta a las personas si es moralmente aceptable dañar a una persona para salvar a muchas otras.

Encontramos efectos de los neuromoduladores en estos escenarios y son muy interesantes por derecho propio. Pero encontré esta herramienta insatisfactoria para la pregunta que me interesa, que es: ¿Cómo la gente toma decisiones morales con consecuencias reales en tiempo real, en lugar de en alguna situación hipotética? Estoy igualmente insatisfecho con los juegos económicos como herramienta para estudiar la toma de decisiones morales porque no está claro que haya una norma moral sobresaliente en algo como la cooperación en un juego de bienes públicos o las donaciones caritativas en un juego de dictador. No está claro que las personas se sientan culpables si eligen la opción egoísta en estos casos.

Después de todo esto, volví a la mesa de dibujo y pensé ¿cuál es la esencia de la moralidad? Se ha trabajado en esto en los últimos años. Un artículo maravilloso de Kurt Gray, Liane Young y Adam Waytz sostiene que la esencia de la moralidad es el daño, específicamente el daño interpersonal intencional: un agente que daña a un paciente. Por supuesto, la moral es más que esto, absolutamente la moral es más que esto. Será difícil encontrar un código moral que no incluya alguna prohibición de dañar a otra persona a menos que tenga una buena razón.

Lo que quería hacer era crear una medida en el laboratorio que pudiera cuantificar con precisión cuánto le disgusta a la gente causar daños interpersonales. Lo que se nos ocurrió fue lograr que la gente hiciera concesiones entre las ganancias personales (dinero) y el dolor en forma de descargas eléctricas que se le dan a otra persona.

Lo que podemos hacer con este método es calcular, en términos monetarios, cuánto le disgusta a la gente hacer daño a los demás. Y podemos ajustar modelos computacionales a su proceso de decisión que nos brinden una imagen rica de cómo las personas toman estas decisiones, no solo cuánto daño están dispuestos a causar o no, sino cuál es el valor preciso que le dan al daño. de otros en relación con, por ejemplo, daño a sí mismos? ¿Cuál es la relativa certeza o incertidumbre con la que están tomando esas decisiones? ¿Qué tan ruidosas son sus elecciones? Si estamos tratando con ganancias o pérdidas monetarias, ¿cómo influye la aversión a las pérdidas en esto?

Podemos obtener una imagen más detallada de los datos y del proceso de decisión utilizando métodos como estos, que se inspiran en gran medida en el trabajo sobre la toma de decisiones no sociales y la neurociencia computacional, donde se ha avanzado mucho en los últimos años. Por ejemplo, en los entornos de búsqueda de alimento, ¿cómo decide la gente si ir hacia la izquierda o hacia la derecha cuando hay contingencias de recompensa fluctuantes en el entorno?

Lo que estamos haciendo es importar esos métodos al estudio de la toma de decisiones morales y de ello han surgido muchas cosas interesantes. Como era de esperar, existe una variación individual en la toma de decisiones en este entorno. Algunas personas se preocupan por evitar dañar a los demás y otras personas dicen: "Solo muéstrame el dinero, no me importa la otra persona". Incluso tuve un sujeto que casi con certeza estaba en la escala de psicopatía. Cuando le expliqué lo que tenía que hacer, dijo: "Espera, ¿me vas a pagar para sorprender a la gente? ¡Este es el mejor experimento de todos los tiempos!". Mientras que otras personas se sienten incómodas e incluso angustiadas por esto. Esto captura algo real sobre la toma de decisiones morales.

Una cosa que estamos viendo en los datos es que las personas que parecen ser más reacias a dañar a otros son más lentas cuando toman sus decisiones. Este es un contraste interesante con el trabajo de Dave, donde las personas más prosociales son más rápidas. Por supuesto, hay cuestiones que debemos resolver sobre la correlación versus la causalidad en los tiempos de respuesta y la toma de decisiones, pero hay algunas preguntas aquí al pensar en las diferencias entre un contexto de daño y un contexto de ayuda. Puede ser que las heurísticas que se desarrollan en un contexto de ayuda provengan de aprender sobre lo que es bueno y se aferran a los sistemas neurobiológicos que se acercan a las recompensas y se fortalecen cuando hay recompensas, en contraste con los sistemas neurobiológicos que evitan los castigos y ralentizan o congelan. cuando hay castigos alrededor.

En el contexto de las compensaciones entre la ganancia para mí y el dolor para otra persona, tiene sentido que las personas que están maximizando las ganancias para sí mismas sean más rápidas porque si está considerando el daño a otra persona, ese es un paso computacional adicional que tener que tomar. Si vas a tener en cuenta el sufrimiento de otra persona (la externalidad negativa de tus decisiones) tienes que hacer ese cálculo y eso llevará un poco de tiempo.

En esta pregunta más amplia del curso temporal de la toma de decisiones morales, puede haber un punto óptimo en el que, por un lado, tenga una heurística establecida de ayuda que lo hará más rápido, pero al mismo tiempo, considerar a los demás también es un paso que requiere un procesamiento adicional. Esto tiene sentido.

Cuando estaba desarrollando este trabajo en Londres, un día estaba caminando por la calle revisando mi teléfono, como todos hacemos, y un niño en una bicicleta con una sudadera con capucha vino y trató de robar mi teléfono. Afortunadamente no lo consiguió, simplemente se estrelló contra el suelo, era un ladrón incompetente. Al pensar en cuál fue su proceso de pensamiento durante ese tiempo, no estaba pensando en mí en absoluto. Tenía el ojo puesto en el premio. Tenía el ojo puesto en el teléfono, estaba pensando en su recompensa. No estaba pensando en el sufrimiento que sentiría si perdiera mi teléfono. Esa es una pregunta más amplia en la que pensar en términos de la entrada de la mentalización en la toma de decisiones morales.

Otra observación es que las personas que son más amables en este entorno parecen tener más incertidumbre en la toma de decisiones. Si observa los parámetros que describen la incertidumbre, puede ver que las personas que son más amables parecen ser más ruidosas en torno a su punto de indiferencia. Vacilan más en estas difíciles decisiones.

Así que he estado pensando en la incertidumbre y su relación con el altruismo y la toma de decisiones sociales, de manera más general. Una línea de pensamiento potencialmente fructífera es que las decisiones sociales (decisiones que afectan a otras personas) siempre tienen este elemento inherente de incertidumbre. Incluso si somos un buen mentalizador, incluso si somos el mejor mentalizador posible, nunca sabremos completamente lo que es ser otra persona y cómo otra persona va a experimentar los efectos de nuestras acciones en ellos. .

Una cosa que podría tener sentido hacer si queremos coexistir pacíficamente con los demás es simular cómo nuestro comportamiento afectará a los demás, pero pecamos de ser precavidos. No queremos imponer un costo insoportable a otra persona, por lo que pensamos: "Bueno, puede que no me guste este resultado en cierta medida, pero tal vez a mi compañero de interacción no le gustará un poco más, así que solo voy a agregar un un poco de seguridad adicional, un margen de error, que me llevará en la dirección prosocial ". Vemos esto en el contexto del dolor, pero esto podría aplicarse a cualquier costo: riesgo o costo de tiempo.

Imagínese que tiene un amigo que está tratando de decidir entre dos procedimientos médicos. Un procedimiento produce el resultado más deseable, pero también tiene una alta complicación o una alta tasa de mortalidad. Otro procedimiento no logra un resultado tan bueno, pero es mucho más seguro. Suponga que su amigo le dice: "Quiero que elija el procedimiento que me someteré. Quiero que usted elija por mí". En primer lugar, la mayoría de nosotros nos sentiríamos muy incómodos al tomar esa decisión por otra persona. En segundo lugar, mi intuición es que definitivamente optaría por la opción más segura porque si sucediera algo malo en la decisión arriesgada, me sentiría terrible.

Esta idea de que no podemos acceder directamente a la función de utilidad de otra persona es una idea bastante antigua y se remonta a la década de 1950 con el trabajo de John Harsanyi, quien hizo algunos trabajos en lo que llamó comparaciones de utilidad interpersonal. ¿Cómo se compara la utilidad de una persona con la utilidad de otra? Este problema es importante, particularmente en la ética utilitaria, porque si desea maximizar el mayor bien para el mayor número, debe tener alguna forma de medir el mayor bien para cada uno de esos números.

El desafío de hacer esto fue reconocido por el padre del utilitarismo, Jeremy Bentham, quien dijo: "Es en vano hablar de sumar cantidades que después de la adición seguirán siendo tan distintas como lo eran antes de que la felicidad de un hombre nunca sea la de otro. felicidad: una ganancia para un hombre no es ganancia para otro: también podría pretender agregar 20 manzanas a 20 peras ".

Este problema aún no se ha resuelto. Harsanyi ha hecho un gran trabajo en esto, pero con lo que terminó, su solución final, fue una aproximación que asume que las personas tienen una empatía perfecta, lo cual sabemos que no es el caso. Todavía hay espacio en esta área para la exploración.

La otra cosa acerca de la incertidumbre es que, por un lado, podría llevarnos hacia un comportamiento prosocial, pero por otro lado, hay evidencia de que la incertidumbre sobre los resultados y sobre cómo reaccionan otras personas a esos resultados puede autorizar el comportamiento egoísta. La incertidumbre también se puede explotar para beneficio personal en beneficio propio.

Imagina que eres el director ejecutivo de una empresa. Está tratando de decidir si despedir a algunos trabajadores para aumentar el valor para los accionistas. Si desea hacer el análisis de costo-beneficio, debe calcular cuál es la utilidad negativa para los trabajadores de perder sus trabajos y cómo se compara con la utilidad positiva de los accionistas para obtener estas ganancias. Debido a que no puede acceder directamente a cómo se sentirán los trabajadores y cómo se sentirán los accionistas, hay espacio para que el interés personal se filtre, especialmente si hay incentivos personales para empujarlo en una dirección u otra.

Roberto Weber y Jason Dana han realizado un buen trabajo al respecto, quienes han demostrado que si pones a las personas en situaciones en las que los resultados son ambiguos, la gente usará esto en su beneficio para tomar una decisión egoísta, pero aún así preservará su propia imagen. como una persona moral. Esta será una cuestión importante que abordar. ¿Cuándo la incertidumbre conduce a un comportamiento prosocial porque no queremos imponer un costo insoportable a otra persona? ¿Y cuándo conduce a un comportamiento egoísta porque podemos convencernos de que no va a ser tan malo?

Estas son cosas que queremos poder medir en el laboratorio y mapear diferentes procesos cerebrales (diferentes sistemas neuroquímicos) sobre estos diferentes parámetros que influyen en las decisiones. Veremos avances en los próximos años porque en esta neurociencia computacional no social hay personas inteligentes que están mapeando cómo funcionan las decisiones básicas. Todo lo que la gente como yo tiene que hacer es importar esos métodos para estudiar decisiones sociales más complejas. Habrá muchas frutas al alcance de la mano en esta área durante los próximos años.

Una vez que averigüemos cómo funciona todo esto, y creo que va a pasar un tiempo, a veces me han citado erróneamente al decir que las píldoras de moralidad están a la vuelta de la esquina, y les aseguro que no es así. Pasará mucho tiempo antes de que podamos intervenir en el comportamiento moral y es posible que ese día nunca llegue. La razón por la que este es un problema tan complicado es porque averiguar cómo lo hace el cerebro es la parte fácil. La parte difícil es qué hacer con eso. Ésta es una cuestión filosófica. Si averiguamos cómo funcionan todas las partes móviles, entonces la pregunta es ¿deberíamos intervenir y, de ser así, cómo deberíamos intervenir?

Imagínese que pudiéramos desarrollar una droga precisa que amplifique la aversión de las personas a dañar a otros con esta droga, no dañará a una mosca, todos los que la toman se vuelven como monjes budistas. ¿Quién debería tomar este medicamento? Sólo criminales convictos: ¿personas que han cometido delitos violentos? ¿Deberíamos ponerlo en el suministro de agua? Estas son preguntas normativas. Estas son preguntas sobre lo que se debe hacer. Me siento muy mal preparado para responder estas preguntas con la capacitación que tengo, pero estas son conversaciones importantes entre disciplinas. Los psicólogos y neurocientíficos deben hablar con los filósofos sobre esto. Estas son conversaciones que necesitamos tener porque no queremos llegar al punto en el que tenemos la tecnología pero no hemos tenido esta conversación, porque entonces podrían suceder cosas terribles.

Lo último que diré es que también es interesante pensar en las implicaciones de este trabajo, el hecho de que podemos cambiar la moral de las personas dándoles drogas. ¿Cuáles son las implicaciones de estos datos para nuestra comprensión de qué es la moralidad?

Ahora hay cada vez más evidencia de que si le da a las personas testosterona o influye en su serotonina u oxitocina, esto cambiará la forma en que toman decisiones morales. No de una manera dramática, sino de una manera sutil pero significativa. Y debido a que los niveles y la función de nuestros neuromoduladores cambian todo el tiempo en respuesta a eventos en nuestro entorno, eso significa que las circunstancias externas pueden jugar un papel en lo que usted cree que es correcto y lo que cree que está mal.

Muchas personas pueden encontrar esto profundamente incómodo porque nos gusta pensar que nuestra moral es fundamental para quienes somos y una de las cosas más estables de nosotros. Nos gusta pensar en ellos como escritos en piedra.Si este no es el caso, ¿cuáles son las implicaciones para nuestra comprensión de quiénes somos y en qué deberíamos pensar en términos de hacer cumplir las normas en la sociedad? Tal vez pueda pensar que la solución es que deberíamos tratar de hacer nuestros juicios morales desde una postura neutral, como la condición de placebo de la vida. Eso no existe. La química de nuestro cerebro está cambiando todo el tiempo, por lo que es este terreno muy inestable en el que no podemos encontrar un equilibrio.

Al final del día, así es como trato de evitar ser un científico arrogante que dice: "Puedo medir la moralidad en el laboratorio". Tengo un profundo respeto por la inestabilidad de estas cosas y estas son conversaciones que encuentro profundamente fascinantes.

EL REALITY CLUB

L.A. PAUL: Tenía una pregunta sobre cómo quieres pensar sobre estos temas filosóficos. A veces se las describe como autonomía. Dijiste que si podíamos descubrir algún químico que mejorara las capacidades morales de las personas, ¿lo poníamos en el agua? La pregunta que tengo está un poco relacionada con la imaginabilidad. En otras palabras, el tipo que intentó robar tu teléfono. El pensamiento era: si de alguna manera pudiera imaginar mejor cómo respondería, de alguna manera tal vez haría un mejor juicio moral. Hay una interesante pregunta normativa versus descriptiva porque, por un lado, podría ser más fácil justificar poner la droga en el agua si ayudara a las personas a comprender mejor los hechos morales verdaderos.

¿Qué pasaría si solo los hiciera mejores imaginando varios escenarios para que actuaran de una manera moralmente mejor, pero de hecho no tenía ninguna conexión con la realidad, solo mejoraba su comportamiento? Parece que es importante hacer esa distinción incluso con el trabajo que está haciendo. Es decir, ¿se está enfocando en cómo actúan realmente las personas o se está enfocando en los hechos psicológicos? ¿Cuál estamos priorizando y cuál usamos para justificar cualquier tipo de implicaciones políticas?

CROCKETT: Esto se remonta a la pregunta de si queremos ser psicólogos o economistas si nos enfrentamos a un ser mundano y todopoderoso. Estoy cayendo directamente en el campo de los psicólogos en el sentido de que es muy importante comprender las motivaciones detrás de por qué las personas hacen las cosas que hacen, porque si cambia el contexto, las personas podrían comportarse de manera diferente. Si solo está observando un comportamiento y no sabe por qué ocurre ese comportamiento, entonces podría hacer predicciones incorrectas.

Volviendo a su pregunta, un pensamiento que surge es que es potencialmente menos controvertido mejorar las capacidades que la gente considera que les da más competencia en el mundo.

PAUL: Hay un trabajo interesante sobre los donantes de órganos en particular. Cuando las personas están reclutando posibles donantes de órganos y están mirando a las familias que tienen que tomar la decisión, resulta que se obtienen mejores resultados al alentar a las familias de los posibles donantes a imaginar que la hija murió en un accidente automovilístico. el destinatario del órgano tendrá 17 años y también le encantan los caballos. Podría ser simplemente un tipo con un problema de drogas que se va a quedar con el órgano, pero los resultados medidos de la familia donante son mucho mejores si esa familia se involucra en esta imaginación ficticia aunque no tenga ninguna conexión con la verdad. No siempre es sencillo. En otras palabras, las cuestiones morales a veces se apartan del resultado empírico deseado.

CROCKETT: Una forma en que los psicólogos y neurocientíficos pueden contribuir a esta discusión es ser tan específicos y precisos como sea posible para comprender cómo moldear la motivación versus cómo moldear las elecciones. No tengo una buena respuesta sobre lo que se debe hacer en este caso, pero estoy de acuerdo en que es una pregunta importante.

DAVID PIZARRO: Tengo una buena respuesta. Este tema fue algo que surgió al final de la charla de Dave sobre la promoción del comportamiento versus la comprensión de los mecanismos. Existe, incluso si usted es psicólogo y tiene interés en esto, una forma en la que, en los mecanismos, podría decir: "Voy a tomar el enfoque de aprendizaje de BF Skinner y diré que lo que me importa es esencialmente el frecuencia del comportamiento. ¿Cuáles son las cosas que tengo que hacer para promover el comportamiento que quiero promover? "

Puede obtener estas contingencias agradables y manipuladas en el entorno entre la recompensa y el castigo. ¿La recompensa funciona mejor que el castigo?

Quiero proponer que tenemos dos muy buenas intuiciones, una, que hay que descartar cuando somos científicos sociales, ¿cómo queremos que sean nuestros hijos? Quiero que mi hijo sea bueno por las razones correctas. En otras palabras, quiero que ella desarrolle un personaje del que pueda estar orgulloso y del que ella pueda estar orgullosa. Quiero que haga una donación a organizaciones benéficas no porque tenga miedo de que, si no lo hace, la gente la juzgue mal, sino porque realmente se preocupa por los demás.

Cuando miro a la sociedad, y cuanto más trabajo hacemos que pueda tener implicaciones para la sociedad, debemos dejar de lado esas preocupaciones. Es decir, deberíamos sentirnos cómodos diciendo que hay una pregunta sobre cuáles son las razones correctas y cuáles son las motivaciones correctas en un sentido moral. Hay otra pregunta que debería hacerse desde una perspectiva de política pública: ¿qué maximizará el bienestar de mi sociedad? ¡Me importa una mierda por qué la gente lo hace!

No debería haber ninguna diferencia si lo estás haciendo porque estás avergonzado (como Jennifer podría estar hablando más tarde): "Quiero inscribirme en el programa de energía porque mis compañeros se burlarán de mí", o si lo está haciendo porque se da cuenta de que este es un llamado que Dios le dio: insertar este pequeño reductor de temperatura durante los veranos de California. Ese enfoque "por cualquier medio necesario" que nos parece tan inhumano como individuos es una estrategia perfectamente apropiada para usar cuando tomamos decisiones para el público.

CROCKETT: Sí, eso tiene sentido y es un enfoque satisfactorio en lugar de un enfoque maximizador. Una razón por la que nos preocupamos tanto por la primera intuición es porque en el contexto en el que evolucionamos, que fueron las interacciones de grupos pequeños, alguien que hace algo bueno por las razones correctas va a ser más confiable y más digno de confianza con el tiempo que alguien. quién lo hace por una razón incentivada externamente.

PIZARRO: Y puede que no sea cierto. ¿Derecha? Puede resultar incorrecto.

DAVID RAND: Eso es correcto, pero creo que sigue siendo cierto que no se trata solo de cuando estabas en un grupo pequeño, cazador-recolector, sino en general: si crees en algo por la razón correcta, lo harás incluso si nadie está mirando. Eso crea un resultado socialmente más óptimo que si solo lo hicieras cuando alguien está mirando.

PIZARRO: Sin embargo, es una pregunta empírica. No sé si ha sido respondida. Por ejemplo, el miedo al castigo.

RAND: Tenemos datos, de un sabor. Si miras a las personas que cooperan en los repetidos dilemas de los prisioneros, no es más o menos probable que cooperen de una vez, o no es más probable que cedan en un juego de dictador. Cuando la regla está en vigor, todos cooperan sin importar si son egoístas o no. Cuando no hay ningún incentivo, las personas egoístas vuelven a ser egoístas.

SARAH-JAYNE BLAKEMORE: También hay datos de que en los quioscos de prensa en el Reino Unido, donde a veces puedes tomar un periódico y poner dinero en la ranura, y si pones un par de ojos por encima de la ranura del dinero, es más probable que la gente pague sus cuotas. que si no pones ningún ojo ahí.

PIZARRO: Eso ciertamente no es actuar por la razón correcta. Esa no puede ser la razón correcta.

RAND: Mencionaste la cuestión de pensar en las consecuencias para ti mismo frente a la otra persona. Cuando pensamos en cómo se toman estas decisiones, hay dos etapas que son distintas pero que se agrupan mucho en términos conceptuales y de medición. Tienes que entender cuáles son las opciones, y luego, una vez que sepas cuáles son, tienes que elegir cuál prefieres. Me parece que el procesamiento automático versus el deliberativo tiene roles opuestos en esos dos dominios. Evidentemente, para comprender el problema hay que pensarlo. Si eres egoísta, no necesitas perder tiempo para pensar en la decisión porque obviamente es lo que debes hacer. Tratamos de separar esas cosas explicando la decisión de antemano cuando no está limitado. Luego, cuando llega el momento de tomar la decisión, pones a las personas bajo presión de tiempo.

CROCKETT: Eso puede explicar lo que está pasando y ese es un buen punto porque estas ideas sobre la incertidumbre y el margen de maniobra moral, van a jugar el papel más importante en la primera parte: en la construcción del problema. ¿Es esta una decisión moral o no es una decisión moral? Potencialmente, también juega el papel más importante esta idea de la que hablabas antes acerca de cómo interiorizan las personas lo que es lo correcto. ¿Cómo establece que esto es lo correcto?

Deberíamos hablar más sobre esto porque, metodológicamente, es importante separarlo.

HUGO MERCIER: ¿Puedo decir algo sobre este tema de la mentalización? Tiene razón al llamar la atención sobre la importancia de mentalizar al tomar decisiones o juicios morales. Parece que los datos indican que no somos muy buenos en eso, que tenemos sesgos y tendemos a no ser muy buenos cuando pensamos en lo que podría haber causado el comportamiento de otras personas.

La razón es que en la vida cotidiana, a diferencia de muchos entornos experimentales, podemos hablar con la gente. Si haces algo que creo que es malo, y sabemos por los datos sobre cómo se explica la gente, eso de forma espontánea me dirás por qué hiciste esto y tratarás de justificarte. No tengo que hacer el trabajo de tratar de averiguar por qué hiciste esto, qué tipo de excusa podrías haber tenido porque lo vas a hacer por mí. Luego, configuramos estos experimentos en los que no tienes estos comentarios y es simplemente extraño. No es irrelevante porque hay muchas situaciones en las que eso también sucede, pero aún debemos tener en cuenta que no es natural. En la mayoría de estos juegos y en la mayoría de estos experimentos, si pudieras dejar que la gente hable, encontrarán una buena solución. Lo que pasa con los choques, si la gente pudiera hablar entre ellos, podría decir "Bueno, estoy feliz de aceptar el choque si quieres compartir el dinero". Por otra parte, no estoy diciendo que no sea interesante hacer los experimentos en absoluto, pero debemos tener en cuenta que es un poco extraño.

CROCKETT: Eso es cierto hasta cierto punto. Muchas decisiones morales, particularmente en el ámbito de la cooperación en el mundo real, suelen implicar algún tipo de comunicación. Sin embargo, cada vez más, muchas decisiones morales son individuales en el sentido de que involucran a alguien que no está allí. Si está decidiendo si comprar un producto de comercio justo o no, o si es un político que toma una decisión sobre una política de salud que afectará a cientos, miles de personas, millones de personas que no están allí. Algunas de las decisiones morales de mayor alcance las toma un individuo que no ve a quienes van a soportar las consecuencias de esa decisión. Es importante estudiar ambos.

MERCIER: Quizás al darse cuenta de que el contexto en el que evolucionaron estos mecanismos de mentalización fue uno en el que tuvo una gran cantidad de retroalimentación, puede ayudarnos a comprender mejor lo que sucede cuando no tenemos esta retroalimentación.

CROCKETT: Quizás por eso vemos un comportamiento egoísta es que estamos acostumbrados a tener la oportunidad de justificarlo cuando ahora hay muchos casos en los que no tienes que justificarlo.

FIERY CUSHMAN: Una de las cosas únicas y geniales de su investigación es el enfoque en los neuromoduladores, mientras que la mayoría de las investigaciones sobre cómo el cerebro procesa la moralidad se ha centrado en la computación neuronal. Obviamente, esas cosas están interrelacionadas. Supongo que siempre lo he estado, no sé si confundido es la palabra correcta, sobre para qué sirven los neuromoduladores. Parece que la computación neuronal puede ser increíblemente precisa. Puede obtener un Seurat o un Vermeer a partir de la computación neuronal, mientras que los neuromoduladores le brindan Rothkos y Pollocks.

¿Por qué el cerebro tiene herramientas tan contundentes? ¿De qué manera pensar en los neuromoduladores, en particular como una herramienta muy contundente pero también de amplio alcance, informa su pensamiento sobre su papel en el juicio moral en contraposición a la computación neuronal?

CROCKETT: Es importante distinguir entre las herramientas que tenemos como investigadores para manipular neuromoduladores, que son increíblemente contundentes, frente a la forma en que funcionan estos sistemas en el cerebro, que son extremadamente precisos. El sistema de la serotonina, por ejemplo, tiene al menos 17 tipos diferentes de receptores. Esos receptores hacen cosas diferentes y se distribuyen de manera diferente en el cerebro. Algunos tipos de receptores solo se encuentran subcorticalmente y otros receptores tienen su concentración más alta en la corteza prefrontal medial. Existe un alto grado de precisión en la forma en que estas sustancias químicas pueden influir en el procesamiento del cerebro en circuitos más locales.

Para responder a la primera parte de su pregunta, la función de estos sistemas es que la cognición no es un programa único para todos. A veces, desea centrarse más en los detalles locales excluyendo el panorama general. Otras veces, desea poder ver el panorama más amplio excluyendo los pequeños detalles. Si desea procesar de una manera u otra, dependerá profundamente del contexto ambiental.

Si se encuentra en una situación muy estresante, debe centrar su atención en cómo salir de esa situación. No querrás pensar en lo que desayunarás mañana. Por el contrario, si las cosas se relajan, ese es el momento en el que puede participar en la planificación a largo plazo. Hay evidencia de que cosas como el estrés, los eventos ambientales, los eventos que tienen alguna consecuencia importante para la supervivencia del organismo van a activar estos sistemas que luego moldean la cognición de tal manera que es adaptativa. Esa es la forma en que pienso sobre los neuromoduladores.

La serotonina es interesante en este contexto porque es uno de los menos comprendidos en términos de cómo funciona. El ejemplo del estrés del que estaba hablando, la noradrenalina y el cortisol y esos neuromoduladores se entienden bastante bien. La noradrenalina es estimulada por el estrés y aumenta la relación señal / ruido en la corteza prefrontal y centra su atención.

La serotonina hace toneladas de cosas diferentes, pero es uno de los pocos, si no el único neuromodulador importante que solo se puede sintetizar si se cuenta continuamente con aportes nutricionales. La serotonina se produce a partir del triptófano, que es un aminoácido que solo se puede obtener de la dieta. Solo puede contraerlo al comer alimentos que contienen triptófano, que es la mayoría de los alimentos, pero especialmente los alimentos ricos en proteínas. Si está en una hambruna, no producirá tanta serotonina.

Esto es interesante en un contexto evolutivo porque ¿cuándo tiene sentido cooperar y preocuparse por el bienestar de sus semejantes? Cuando los recursos son abundantes, entonces es cuando debes construir relaciones. Cuando los recursos son escasos, tal vez quieras cuidarte a ti mismo, aunque hay algunas arrugas interesantes allí de las que Dave y yo hemos hablado antes donde podría haber una función en forma de U invertida donde la cooperación es fundamental en momentos de estrés.

Quizás una función de la serotonina es dar forma a nuestras preferencias sociales de tal manera que se adapte al contexto ambiental actual.


Introducción al diseño robusto (método Taguchi)

El método de diseño robusto, también llamado Método Taguchi, del que fue pionero el Dr. Genichi Taguchi, mejora enormemente la productividad de la ingeniería. Al considerar conscientemente los factores de ruido (variación ambiental durante el uso del producto & # 8217s, variación de fabricación y deterioro de los componentes) y el costo de fallas en el campo, el método de diseño robusto ayuda a garantizar la satisfacción del cliente. Robust Design se enfoca en mejorar la función fundamental del producto o proceso, facilitando así diseños flexibles e ingeniería concurrente. De hecho, es el método más poderoso disponible para reducir el costo del producto, mejorar la calidad y simultáneamente reducir el intervalo de desarrollo.

1. ¿Por qué utilizar un método de diseño robusto?
Durante los últimos cinco años, muchas empresas líderes han invertido mucho en el enfoque Six Sigma destinado a reducir el desperdicio durante la fabricación y las operaciones. Estos esfuerzos han tenido un gran impacto en la estructura de costos y, por lo tanto, en los resultados de esas empresas. Muchos de ellos han alcanzado el máximo potencial del enfoque tradicional Six Sigma. ¿Cuál sería el motor de la próxima ola de mejora de la productividad?

Brenda Reichelderfer de ITT Industries informó sobre su encuesta de evaluación comparativa de muchas empresas líderes, & # 8220design influye directamente en más del 70% del costo del ciclo de vida del producto, las empresas con alta efectividad en el desarrollo de productos tienen ganancias tres veces las ganancias promedio y las empresas con alta efectividad en el desarrollo de productos. tienen un crecimiento de ingresos dos veces mayor que el crecimiento de ingresos promedio. & # 8221 Ella también observó, & # 822040% de los costos de desarrollo de productos se desperdician. & # 8221

Estas y otras observaciones similares de otras empresas líderes las están impulsando a adoptar procesos mejorados de desarrollo de productos bajo el lema Design for Six Sigma. El enfoque de Diseño para Six Sigma se centra en 1) aumentar la productividad de la ingeniería para que los nuevos productos se puedan desarrollar rápidamente y a bajo costo, y 2) la gestión basada en el valor.

El método de diseño robusto es fundamental para mejorar la productividad de la ingeniería. Creado por el Dr. Genichi Taguchi después del final de la Segunda Guerra Mundial, el método ha evolucionado durante las últimas cinco décadas. Muchas empresas de todo el mundo han ahorrado cientos de millones de dólares al utilizar el método en diversas industrias: automóviles, xerografía, telecomunicaciones, electrónica, software, etc.

1.1. Problemas típicos resueltos por un diseño robusto
Un equipo de ingenieros estaba trabajando en el diseño de un receptor de radio para la comunicación tierra-aeronave que requiere alta confiabilidad, es decir, baja tasa de error de bit, para la transmisión de datos. Por un lado, construir series de prototipos para eliminar los problemas de forma secuencial sería tremendamente caro. Por otro lado, el esfuerzo de simulación por computadora para evaluar un solo diseño también requería mucho tiempo y era costoso. Entonces, ¿cómo se puede acelerar el desarrollo y al mismo tiempo asegurar la confiabilidad?

En otro proyecto, un fabricante había introducido una fotocopiadora de alta velocidad en el campo solo para descubrir que el alimentador de papel se atascaba casi diez veces más de lo planeado. El método tradicional para evaluar la confiabilidad de una única idea de diseño nuevo solía llevar varias semanas. ¿Cómo puede la empresa realizar la investigación necesaria en poco tiempo y crear un diseño que no vuelva a avergonzar a la empresa en el campo?

El método de diseño robusto ha ayudado a reducir el tiempo y el costo de desarrollo en un factor de dos o más en muchos de estos problemas.

En general, las decisiones de ingeniería involucradas en el desarrollo de productos / sistemas se pueden clasificar en dos categorías:

  • Implementación sin errores del conocimiento y la experiencia colectivos pasados
  • Generación de nueva información de diseño, a menudo para mejorar la calidad / confiabilidad, el rendimiento y el costo del producto.

Si bien las herramientas CAD / CAE son efectivas para implementar conocimientos pasados, el método de diseño robusto mejora en gran medida la productividad en la generación de nuevos conocimientos al actuar como un amplificador de las habilidades de ingeniería. Con Robust Design, una empresa puede alcanzar rápidamente todo el potencial tecnológico de sus ideas de diseño y lograr mayores ganancias.

2. Estrategia de robustez

La reducción de la variación se reconoce universalmente como una clave para la mejora de la fiabilidad y la productividad. Hay muchos enfoques para reducir la variabilidad, cada uno de los cuales tiene su lugar en el ciclo de desarrollo del producto.

Al abordar la reducción de la variación en una etapa particular del ciclo de vida de un producto, se pueden evitar fallas en las etapas posteriores. El enfoque Six Sigma ha logrado enormes ganancias en la reducción de costos al detectar problemas que ocurren en las operaciones de fabricación o de cuello blanco y solucionar las causas inmediatas. La estrategia de robustez consiste en prevenir problemas mediante la optimización de los diseños de productos y los diseños de procesos de fabricación.

El fabricante de un amplificador operacional diferencial utilizado en teléfonos de monedas se enfrentó al problema del voltaje de compensación excesivo debido a la variabilidad de fabricación. El alto voltaje de compensación provocó una mala calidad de voz, especialmente para los teléfonos más alejados de la oficina central. Entonces, ¿cómo minimizar los problemas de campo y los costos asociados? Hay muchos enfoques:

  1. Compense a los clientes por sus pérdidas.
  2. Elimine los circuitos que tengan una gran tensión de compensación al final de la línea de producción.
  3. Establezca tolerancias más estrictas mediante el control de procesos en la línea de fabricación.
  4. Cambie los valores nominales de los parámetros críticos del circuito de modo que la función del circuito se vuelva insensible a la causa, es decir, la variación de fabricación.

El enfoque 4 es la estrategia de robustez. A medida que se pasa del enfoque 1 al 4, se avanza progresivamente en el ciclo de entrega del producto y también se vuelve más eficiente en el control de costos. Por tanto, es preferible abordar el problema lo antes posible. La estrategia de robustez proporciona la metodología crucial para llegar sistemáticamente a soluciones que hagan que los diseños sean menos sensibles a las diversas causas de variación. Se puede utilizar para optimizar el diseño de productos, así como para el diseño de procesos de fabricación.

La estrategia de robustez utiliza cinco herramientas principales:

  1. El diagrama P se utiliza para clasificar las variables asociadas con el producto en factores de ruido, control, señal (entrada) y respuesta (salida).
  2. La función ideal se utiliza para especificar matemáticamente la forma ideal de la relación señal-respuesta tal como se encarna en el concepto de diseño para hacer que el sistema de nivel superior funcione perfectamente.
  3. La función de pérdida cuadrática (también conocida como función de pérdida de calidad) se utiliza para cuantificar la pérdida incurrida por el usuario debido a la desviación del rendimiento objetivo.
  4. La relación señal-ruido se utiliza para predecir la calidad del campo a través de experimentos de laboratorio.
  5. Las matrices ortogonales se utilizan para recopilar información confiable sobre factores de control (parámetros de diseño) con una pequeña cantidad de experimentos.

2.1 Diagrama P

P-Diagram es imprescindible para todo proyecto de desarrollo. Es una forma de definir sucintamente el alcance del desarrollo. Primero identificamos la señal (entrada) y la respuesta (salida) asociadas con el concepto de diseño. Por ejemplo, al diseñar el sistema de refrigeración de una habitación, el ajuste del termostato es la señal y la temperatura ambiente resultante es la respuesta.

A continuación, considere los parámetros / factores que están más allá del control del diseñador. Esos factores se denominan factores de ruido. La temperatura exterior, la apertura / cierre de ventanas y el número de ocupantes son ejemplos de factores de ruido. Los parámetros que puede especificar el diseñador se denominan factores de control. El número de registros, su ubicación, el tamaño de la unidad de aire acondicionado, el aislamiento son ejemplos de factores de control.

Idealmente, la temperatura ambiente resultante debería ser igual a la temperatura del punto de ajuste. Por lo tanto, la función ideal aquí es una línea recta de pendiente uno en el gráfico de respuesta de señal. Esta relación debe ser válida para todas las condiciones de funcionamiento. Sin embargo, los factores de ruido hacen que la relación se desvíe del ideal.

El trabajo del diseñador es seleccionar los factores de control apropiados y sus configuraciones para que la desviación del ideal sea mínima a un bajo costo. Este diseño se denomina diseño de sensibilidad mínima o diseño robusto. Se puede lograr aprovechando la no linealidad de los productos / sistemas. El método de diseño robusto prescribe un procedimiento sistemático para minimizar la sensibilidad del diseño y se denomina diseño de parámetros.

Una abrumadora mayoría de fallas de productos y los costos de campo resultantes y las iteraciones de diseño provienen de ignorar los factores de ruido durante las primeras etapas de diseño. Los factores de ruido surgen uno a uno como sorpresas en las siguientes etapas de entrega del producto, lo que provoca costosos fallos y curitas. Estos problemas se evitan en el método de diseño robusto al someter las ideas de diseño a factores de ruido a través del diseño de parámetros.

El siguiente paso es especificar la desviación permitida de los parámetros de los valores nominales. Implica equilibrar el costo adicional de tolerancias más estrictas con los beneficios para el cliente. Se deben tomar decisiones similares con respecto a la selección de diferentes grados de los subsistemas y componentes de las alternativas disponibles. La función de pérdida cuadrática es muy útil para cuantificar el impacto de estas decisiones en los clientes o sistemas de nivel superior. El proceso de equilibrar el costo se llama Diseño de tolerancia.

El resultado de utilizar un diseño de parámetros seguido de un diseño de tolerancia son productos exitosos a bajo costo.

2.2 Medición de la calidad

En la mejora de la calidad y la optimización del diseño, la métrica juega un papel crucial. Desafortunadamente, una sola métrica no cubre todas las etapas de la entrega del producto.

Es común utilizar la fracción de productos fuera de los límites especificados como medida de calidad. Aunque es una buena medida de la pérdida debida a la chatarra, fracasa estrepitosamente como indicador de la satisfacción del cliente. La función de pérdida de calidad cumple muy bien ese propósito.

Definamos las siguientes variables:

m: valor objetivo para una característica crítica del producto

+/- Delta: desviación permitida del objetivo

A: pérdida debido a un producto defectuoso

Entonces, la pérdida de calidad, L, que sufre un cliente medio debido a un producto con y como valor de la característica viene dada por la siguiente ecuación:

Si la producción de la fábrica tiene una distribución de la característica crítica con media my varianza s2, entonces la pérdida de calidad promedio por unidad del producto viene dada por:

2.3 Relaciones señal / ruido (S / N)

La fase de diseño del producto / proceso / sistema implica decidir los mejores valores / niveles para los factores de control. La relación señal / ruido (S / N) es una métrica ideal para ese propósito.

La ecuación para la pérdida de calidad promedio, Q, dice que la pérdida de calidad promedio del cliente depende de la desviación de la media del objetivo y también de la varianza. Una clase importante de problema de optimización del diseño requiere la minimización de la varianza mientras se mantiene la media en el objetivo.

Entre la media y la desviación estándar, normalmente es fácil ajustar la media en el objetivo, pero reducir la varianza es difícil. Por lo tanto, el diseñador debe minimizar la varianza primero y luego ajustar la media en el objetivo. Entre los factores de control disponibles, la mayoría de ellos debe usarse para reducir la varianza. Solo uno o dos factores de control son adecuados para ajustar la media en el objetivo.

El problema de optimización del diseño se puede resolver en dos pasos:

1. Maximice la relación S / N, h, definido como

Este es el paso de la reducción de la varianza.

2. Ajuste la media en el objetivo usando un factor de control que no tenga ningún efecto sobre h. Tal factor se llama factor de escala. Este es el paso de ajustar la media en el objetivo.

Normalmente, se busca un factor de escala para ajustar la media en el objetivo durante el diseño y otro para ajustar la media para compensar la variación del proceso durante la fabricación.

2.4 Relaciones S / N estáticas versus dinámicas

En algunos problemas de ingeniería, el factor de señal está ausente o toma un valor fijo. Estos problemas se denominan problemas estáticos y las relaciones S / N correspondientes se denominan relaciones S / N estáticas. La relación S / N descrita en la sección anterior es una relación S / N estática.

En otros problemas, la señal y la respuesta deben seguir una función llamada función ideal. En el ejemplo del sistema de enfriamiento descrito anteriormente, la respuesta (temperatura ambiente) y la señal (punto de ajuste) deben seguir una relación lineal. Estos problemas se denominan problemas dinámicos y las relaciones S / N correspondientes se denominan relaciones S / N dinámicas.

La relación dinámica S / N se ilustrará en una sección posterior utilizando un ejemplo de diseño de turbina.

Las relaciones dinámicas S / N son muy útiles para el desarrollo de tecnología, que es el proceso de generar soluciones flexibles que se pueden utilizar en muchos productos.

3. Pasos en el diseño robusto de parámetros

El diseño robusto de parámetros tiene 4 pasos principales:

1. Formulación de problemas:

Este paso consiste en identificar la función principal, desarrollar el diagrama P, definir la función ideal y la relación S / N y planificar los experimentos. Los experimentos implican cambiar los factores de control, ruido y señal de forma sistemática utilizando matrices ortogonales.

2. Recopilación / simulación de datos:

Los experimentos pueden realizarse en hardware o mediante simulación. No es necesario tener un modelo a escala real del producto con fines de experimentación. Es suficiente y más deseable tener un modelo esencial del producto que capture adecuadamente el concepto de diseño. Por tanto, los experimentos se pueden realizar de forma más económica.

3. Análisis de los efectos de los factores:

Los efectos de los factores de control se calculan en este paso y los resultados se analizan para seleccionar el ajuste óptimo de los factores de control.

4. Predicción / Confirmación:

Con el fin de validar las condiciones óptimas, predecimos el rendimiento del diseño del producto bajo la línea de base y los ajustes óptimos de los factores de control. Luego, realizamos experimentos de confirmación en estas condiciones y comparamos los resultados con las predicciones. Si los resultados de los experimentos de confirmación concuerdan con las predicciones, implementamos los resultados. De lo contrario, los pasos anteriores deben repetirse.

Ver también: Casos prácticos de diseño robusto


Introducción

Se ha informado que el color, uno de los aspectos más poderosos del medio ambiente, promueve la adaptación humana al medio ambiente y mejora la forma espacial [1]. El color puede cambiar el tamaño y la calidez percibidos de una habitación, provocar asociaciones, mejorar la introversión o la extroversión, incitar la ira o la relajación e influir en las respuestas fisiológicas [2], [3]. Se han realizado varios estudios para estudiar el impacto psicológico del color. Por ejemplo, mientras que los colores cálidos proporcionan activación y estimulación visual, los colores fríos comunican sutileza y relajación.

El entorno visual es un elemento vital que influye en la moral del personal del hospital y los estudios de productividad incluso han informado que un entorno visual mejorado ha producido tasas de recuperación más rápidas hasta en un 10%. De hecho, estas mejoras se han atribuido a elementos particulares del entorno visual que incluyen el uso del color apropiado en el diseño de interiores. En el diseño de hospitales, el color puede tener un impacto en las percepciones y respuestas de las personas al medio ambiente y también afectar las tasas de recuperación de los pacientes, mejorando la calidad y la experiencia general de los pacientes, el personal y los visitantes. El color también es una herramienta poderosa para la codificación, la navegación y la orientación; el color también puede promover una sensación de bienestar e independencia.

Existen numerosos estudios en el campo de la psicología que demuestran la relación entre el comportamiento humano y el color. Sin embargo, los estudios de color en el campo del diseño ambiental son casi inexistentes. Nourse y Welch [4] probaron el hallazgo de Wilson [5] de que el rojo es más excitante que el verde. Jacobs y Hustmyer [6] encontraron que el rojo era significativamente más excitante que el azul o el amarillo, y el verde más que el azul. Fehrman y Fehrman [7] informaron sobre los efectos del azul, rojo y amarillo en el desempeño de la tarea y la excitación para la selección de color efectiva de los espacios interiores. Kwallek, Lewis y Robbins [8] examinaron los efectos de una oficina de color rojo frente a una azul sobre la productividad y el estado de ánimo de los sujetos. Kwallek y Lewis [9] investigaron los efectos del color ambiental sobre el género utilizando una oficina roja, blanca y verde. El experimento evaluó el desempeño de los trabajadores en la corrección de pruebas y el estado de ánimo en entornos de oficina de diferentes colores. Weller y Livingston [10] examinaron el efecto del papel de color sobre las respuestas emocionales obtenidas de los cuestionarios. Se diseñaron y compilaron seis cuestionarios diferentes en este orden: rosa-culpable, rosa-no culpable azul-culpable, azul-no culpable blanco-culpable, blanco-no culpable. Boyatzis y Varghese [11] investigaron las asociaciones de colores y emociones de los niños. Descubrieron que los niños mostraban emociones positivas a los colores brillantes (rosa, rojo, amarillo, verde, morado o azul) y emociones negativas a los colores oscuros (marrón, negro, gris). Hemphill [12] examinó las asociaciones de colores y emociones de los adultos y las comparó con los hallazgos de Boyatzis y Varghese [11].

La investigación científica significa revisar un concepto a través de la observación con el fin de probar una teoría o hipótesis con el fin de explicar un fenómeno. La teoría y las hipótesis presupuestas se prueban mediante observaciones sistemáticas para hacer una explicación general de los fenómenos naturales. Los experimentos son útiles para explorar los fenómenos porque implican probar hipótesis e investigar las relaciones de causa y efecto [13]. Los experimentos se caracterizan por la manipulación de variables independientes y la identificación de posibles relaciones de causa y efecto entre una variable independiente y una variable dependiente. Los tipos de experimentos se clasifican según el grado de asignación aleatoria de sujetos a las diversas condiciones; son verdaderos experimentos, cuasi-experimentos y experimentos de un solo sujeto. Los verdaderos experimentos requieren una asignación aleatoria imparcial de sujetos a grupos de tratamiento y la capacidad del investigador para manipular directamente variables independientes. Los experimentos rigurosos se realizan típicamente en un laboratorio donde es posible controlar las variables. La principal ventaja de estos experimentos es su capacidad para establecer relaciones causales. Los cuasiexperimentos no establecen relaciones causales en el mismo grado que los experimentos verdaderos, ya que los experimentos de campo se encuentran habitualmente con factores incontrolables. La ventaja de los cuasi-experimentos es su mayor generalización debido a su naturalidad en comparación con la artificialidad de los experimentos verdaderos [14].

Según estudios anteriores, la tendencia constante es que el azul y el verde son los colores más preferidos. Sin embargo, la mayoría de los estudios de preferencia de color no lograron controlar las variables de confusión como los atributos de color [15], [16]. Un estudio de preferencia de color bien controlado de pacientes psicológicos parece no existir. Para abordar las limitaciones encontradas en investigaciones anteriores, este estudio es el primero en utilizar el diseño experimental para proporcionar una base para los estudios de color. Esta investigación avanza en la comprensión del valor del color en una sala de asesoramiento mediante el estudio de las percepciones del color de los pacientes psicológicos. Este conocimiento debería facilitar mejoras en el diseño de hospitales. Los objetivos principales de este estudio son: 1) proponer un enfoque de investigación de diseño de color basado en experimentos, 2) crear una solución de optimización en el uso del diseño de color.


Artículo de revisión

  • 1 Escuela de Artes y Humanidades, Universidad Edith Cowan, Joondalup, WA, Australia
  • 2 Mary Immaculate College, Universidad de Limerick, Limerick, Irlanda

A pesar de que se ha prestado una atención especial a los problemas relacionados con la confiabilidad de la investigación psicológica (por ejemplo, la crisis de la replicación), los problemas de validez de esta investigación no se han considerado en la misma medida. Este artículo destaca un tema que cuestiona la validez de la práctica de investigación común de estudiar muestras de individuos y usar estadísticas basadas en muestras para inferir generalizaciones que se aplican no solo a la población de padres, sino a los individuos. La falta de ergodicidad en los datos humanos significa que tales generalizaciones no están justificadas. Este problema se ilustra con respecto a dos escenarios comunes en la investigación psicológica que plantean preguntas sobre el tipo de teorías que se proponen típicamente para explicar el comportamiento y la cognición humanos. El artículo presenta un método de análisis de datos que requiere una mayor atención a la gama de comportamientos exhibidos por los individuos en nuestra investigación para determinar la omnipresencia de los efectos observados en los datos de muestra. Este enfoque del análisis de datos producirá resultados que están más en sintonía con los tipos de generalizaciones típicas en los informes de investigación psicológica que con los métodos de análisis convencionales.


Por qué nos gusta lo que nos gusta

De Paul Bloom Cómo funciona el placer: la nueva ciencia de por qué nos gusta lo que nos gusta proporciona un maravilloso conjunto de argumentos de por qué amamos lo que amamos. En mi propio trabajo, me llamó la atención que los niños parecen tener preferencias automáticas hacia grupos sociales que imitan el estado adulto (a pesar de tener mucha menos experiencia) y han estado trabajando para comprender estas preferencias y sus orígenes. El libro de Paul me dio varias ideas que no había considerado y pensé que valía la pena compartir sus propuestas de manera más amplia. ¡Disfrutar!

Agradezco al presidente de APS, Mahzarin Banaji, por darme la oportunidad de discutir la ciencia del placer.

Una de las ideas más interesantes de la ciencia cognitiva es la teoría de que las personas tienen la suposición predeterminada de que las cosas, las personas y los eventos tienen esencias invisibles que los hacen lo que son. Los psicólogos experimentales han argumentado que el esencialismo subyace a nuestra comprensión de los mundos físico y social, y los psicólogos del desarrollo y transculturales han propuesto que es instintivo y universal. Somos esencialistas natos.

Propongo que este esencialismo no solo influye en nuestra comprensión del mundo, sino que también da forma a nuestra experiencia, incluidos nuestros placeres. Lo que más importa no es el mundo tal como aparece a nuestros sentidos. Más bien, el disfrute que obtenemos de algo se deriva de lo que creemos que es realmente. Esto es cierto para placeres más intelectuales, como la apreciación de pinturas e historias, pero también es cierto para placeres que parecen más animales, como la satisfacción del hambre y la lujuria. Para una pintura, importa quién fue el artista para una historia, importa si es verdad o ficción para un bistec, nos importa de qué tipo de animal proviene para el sexo, nos afecta mucho quién creemos que es nuestra pareja sexual. realmente es.

¿Qué motiva este tipo de teoría? Después de todo, algunas preguntas sobre el placer tienen respuestas fáciles y tienen poco que ver con el esencialismo. Sabemos por qué los humanos disfrutan tanto de comer y beber. Sabemos por qué disfrutamos comiendo algunas cosas, como la fruta dulce, más que otras cosas, como las piedras. Sabemos por qué el sexo es a menudo divertido y por qué puede ser agradable mirar la cara sonriente de un bebé y escuchar la risa de un bebé. Las respuestas obvias son que los animales como nosotros necesitan comida y agua para sobrevivir, necesitan sexo para reproducirse y necesitan atender a nuestros hijos para que sobrevivan. El placer es la zanahoria que nos impulsa hacia estas actividades útiles para la reproducción. Como observó George Romanes en 1884, “el placer y el dolor deben haber evolucionado como el acompañamiento subjetivo de procesos que son respectivamente beneficiosos o perjudiciales para el organismo, y evolucionaron con el propósito o con el fin de que el organismo debería buscar el uno y evitarlo. el otro."

Todavía tenemos que explicar cómo funcionó todo tan bien, por qué sucede (para destrozar la letra de los Rolling Stones) que no siempre podemos obtener lo que queremos, pero queremos lo que necesitamos. Aquí es donde entra Darwin. La teoría de la selección natural explica, sin apelar a un diseñador inteligente, por qué nuestros placeres nos inclinan tan bien hacia actividades que son beneficiosas para la supervivencia y la reproducción, por qué el placer es bueno para los genes.

Ésta es una teoría adaptacionista del placer. Tiene bastante éxito en animales no humanos. Les gusta lo que dice la biología evolutiva que les debería gustar, como la comida, el agua y el sexo. En gran medida, esto también es cierto para los humanos. Pero muchos placeres humanos son más misteriosos. empiezo Cómo funciona el placer con algunos ejemplos de esto:

Algunas adolescentes disfrutan cortándose con navajas. Algunos hombres pagan mucho dinero por ser azotados por prostitutas. El estadounidense promedio pasa más de cuatro horas al día viendo televisión. La idea de tener sexo con una virgen despierta intensamente a muchos hombres. El arte abstracto puede venderse por millones de dólares. Los niños pequeños disfrutan jugando con amigos imaginarios y pueden ser reconfortados con mantas de seguridad. La gente reduce la velocidad de sus coches para ver accidentes sangrientos e ir a películas que les hacen llorar.

Considere también los placeres de la música, los objetos sentimentales (como la manta de seguridad de un niño) y el ritual religioso. Ahora bien, uno no debería apresurarse a abandonar las explicaciones adaptacionistas, y hay algunas propuestas serias sobre las ventajas selectivas de ciertos placeres desconcertantes: El amor universal por las historias podría evolucionar como una forma de práctica mental para construir una experiencia indirecta con el mundo. y explorar de forma segura realidades alternativas. El arte y los deportes pueden existir como demostraciones de aptitud. Los animales se evalúan constantemente unos a otros como aliados y compañeros, estas actividades humanas podrían ser nuestro equivalente de la cola del pavo real, evolucionada para mostrar lo mejor de nosotros mismos. La música y la danza podrían haber evolucionado como un mecanismo de coordinación para mejorar la cooperación social y los buenos sentimientos mutuos.

Aún así, este enfoque es limitado. Muchos de nuestros placeres especiales son inútiles o desadaptativos, tanto en nuestro entorno actual como en el entorno en el que ha evolucionado nuestra especie. No hay ningún beneficio reproductivo en disfrutar de mantas de seguridad, pinturas de Kandinsky o masoquismo sexual.

Muchos psicólogos desconfían de las explicaciones adaptacionistas y defenderían la alternativa de que nuestros placeres exclusivamente humanos son invenciones culturales. No dudan que los cerebros humanos hayan evolucionado, pero argumentan que lo que los humanos han llegado a poseer es una mayor capacidad de flexibilidad, podemos adquirir ideas, prácticas y gustos que son arbitrarios desde una perspectiva biológica.

Esta teoría de la plasticidad tiene que ser correcta hasta cierto punto. Nadie podría negar que la cultura puede moldear y estructurar el placer humano, incluso aquellos placeres que compartimos con otros animales, como la comida y el sexo, se manifiestan de diferentes maneras en las sociedades. Llevado al extremo, entonces, uno podría concluir que, aunque la selección natural jugó un papel limitado en la configuración de lo que nos gusta (hemos desarrollado el hambre y la sed, el impulso sexual, la curiosidad, algunos instintos sociales), tuvo poco que ver con los detalles. En palabras del crítico Louis Menand, “cada aspecto de la vida tiene un fundamento biológico exactamente en el mismo sentido, que es que a menos que fuera biológicamente posible, no existiría. Después de eso, está en juego ".

Gasto gran parte de Cómo funciona el placer argumentando que esto es un error. La mayoría de los placeres tienen orígenes de desarrollo temprano, no se adquieren a través de la inmersión en una sociedad. Y son compartidos por todos los humanos, la variedad que uno ve puede entenderse como variación sobre un tema universal. La pintura es una invención cultural, pero el amor por el arte no lo es. Las sociedades tienen historias diferentes, pero todas las historias comparten ciertos temas. Los gustos en la comida y el sexo difieren, pero no tanto. Es cierto que podemos imaginar culturas en las que el placer es muy diferente, donde la gente frota la comida con las heces para mejorar su sabor y no le interesa la sal o el azúcar, o donde gasta fortunas en falsificaciones y tira los originales a la basura, o gasta horas felices escuchando estática, encogiéndose al son de una melodía. Pero esto es ciencia ficción, no realidad.

Creo que los humanos comienzan con una lista fija de placeres y no podemos agregar a esa lista. Esto puede parecer una afirmación increíblemente fuerte, dados los inventos del chocolate, los videojuegos, la cocaína, los consoladores, las saunas, los crucigramas, los reality shows, las novelas, etc. Pero sugeriría que estos son agradables porque se conectan, de una manera razonablemente directa, con los placeres que los humanos ya poseen. Los sundaes de chocolate caliente y las costillas a la parrilla son inventos modernos, pero apelan a nuestro amor anterior por el azúcar y la grasa. Hay formas novedosas de música que se crean todo el tiempo, pero una criatura que no esté biológicamente preparada para el ritmo nunca llegará a gustarle ninguna de ellas, siempre será ruido.

Entonces, algunos placeres no son adaptaciones biológicas ni invenciones culturales arbitrarias. Esto nos lleva a un tercer enfoque, explorado en mi libro, que es que muchos de nuestros placeres más interesantes son accidentes evolutivos.

Los casos más obvios aquí son aquellos en los que algo ha evolucionado para la función X pero luego se usa para la función Y, lo que Darwin llamó "preadaptaciones". Como ejemplo simple, muchas personas disfrutan de la pornografía, pero esto no se debe a que nuestros antepasados ​​amantes de la pornografía tuvieran más descendencia que los abstemios. Más bien, ciertas imágenes tienen su efecto, al menos en parte, porque hacen cosquillas a la misma parte de la mente que responde al sexo real. Esta excitación no es una adaptación ni una respuesta aprendida arbitraria, es un subproducto, un accidente. En otro lugar he argumentado que lo mismo se aplica a la capacidad humana para el aprendizaje de palabras. Los niños son notables en el aprendizaje de palabras, pero lo hacen, no a través de una capacidad desarrollada específicamente para ese propósito, sino a través de sistemas que han evolucionado para otras funciones, como monitorear las intenciones de los demás. El aprendizaje de palabras es un accidente afortunado.

Más específicamente, muchos de nuestros placeres pueden ser subproductos accidentales de nuestro esencialismo. Los psicólogos han propuesto diferentes tipos de esencialismo. Existe el esencialismo de categoría, que es la creencia de que los miembros de una categoría determinada comparten una naturaleza profundamente oculta. Esto incluye la creencia en las esencias físicas de cosas naturales como animales y plantas, donde la esencia es interna al objeto, así como la creencia en las esencias psicológicas de cosas hechas por humanos como herramientas y obras de arte, donde la esencia es la historia del objeto. , incluidas las intenciones de la persona que lo creó. Luego está el esencialismo individual, que es la creencia de que un individuo dado tiene una esencia que lo distingue de otros miembros de su categoría, incluso de los duplicados perfectos.

Nuestra psicología esencialista da forma a nuestro placer. A veces, la esencia relevante es la esencia de la categoría, como en el dominio del sexo, donde las esencias asumidas de categorías como masculino y femenino resultan restringir poderosamente lo que le gusta a la gente. A veces, la esencia relevante es la esencia individual, que ayuda a captar cómo ciertos productos de consumo obtienen su valor, como una pintura original de Marc Chagall o la cinta métrica de John F. Kennedy (que se vendió por alrededor de $ 50,000). De manera más general, la propuesta es que lo que nos gusta y lo que nos disgusta son influencias poderosas de nuestras creencias sobre la esencia de las cosas.

Espero que mi libro provoque un debate sobre estas diferentes teorías de por qué nos gusta lo que nos gusta. En una discusión reciente, Paul Rozin se ha preocupado por la estrechez de las ciencias modernas de la mente y señala que si miras un libro de texto de psicología encontrarás poco o nada sobre deportes, arte, música, teatro, literatura, juegos y religión. Estos son dominios maravillosos e importantes de la vida humana, y no entenderemos completamente ninguno de ellos hasta que comprendamos el placer.


Cómo se adquiere la indefensión aprendida

En un artículo de revisión que resume cincuenta años de investigación sobre el tema, dos de los principales investigadores en el campo, Martin Seligman y Steven Maier, que realizaron los principales experimentos sobre el tema, describen, a continuación, los mecanismos que originalmente se suponía que conducían a la indefensión aprendida, en el contexto de experimentos con animales:

  • Primero, DETECTA. Animales DETECTAR la dimensión de controlabilidad y incontrolabilidad. (Esto también se conoce a veces como la dimensión de contingencia y no contingencia)
  • En segundo lugar, ESPERAR. Los animales que DETECTAN incontrolabilidad ESPERAN que el impacto u otros eventos vuelvan a ser incontrolables en situaciones nuevas, lo que socava los intentos de escapar en esas situaciones.

Esencialmente, según esta teoría, cuando las personas se dan cuenta de que no pueden controlar la situación en la que se encuentran, más tarde esperan ser incapaces de controlar situaciones similares también.

Sin embargo, los investigadores sugieren que con base en los cincuenta años de evidencia acumulada desde los estudios iniciales sobre el tema, y ​​particularmente a la luz de la evidencia neurocientífica sobre el tema, la teoría original retrocedió los mecanismos de la indefensión aprendida. Como afirman los investigadores:

& # 8220 La pasividad en respuesta al shock no se aprende. Es la respuesta no aprendida por defecto a eventos aversivos prolongados y está mediada por la actividad serotoninérgica del núcleo del rafe dorsal, que a su vez inhibe el escape. Esta pasividad se puede superar aprendiendo el control, con la actividad de la corteza prefrontal medial, que favorece la detección del control que conduce a la inhibición automática del núcleo del rafe dorsal. Entonces, los animales aprenden que pueden controlar los eventos aversivos, pero el fracaso pasivo para aprender a escapar es una reacción no aprendida a la estimulación aversiva prolongada. & # 8221

En consecuencia, sugieren el siguiente mecanismo para la adquisición de la indefensión aprendida:

  • Primero: PASIVIDAD / ANSIEDAD. & # 8220 La intensa activación del núcleo del rafe dorsal por choque sensibiliza estas neuronas y esta sensibilización dura unos días y resulta en escaso escape (pasividad) y ansiedad elevada & # 8230 La detección de incontrolabilidad no es necesaria ni suficiente para la pasividad. Esto es causado por la exposición prolongada a la estimulación aversiva per se. & # 8221
  • Segundo: DETECTAR y ACTUAR. & # 8220Cuando el shock es inicialmente evitable, se DETECTA la presencia de control & # 8230 Después de la detección del control, se activa una población separada y distinta de neuronas prelóbicas que aquí llamamos ACT. Estas neuronas se proyectan hacia el núcleo del rafe dorsal e inhiben las células 5-HT que son activadas por estimulación aversiva, evitando así la activación del núcleo del rafe dorsal y evitando así la sensibilización de estas células, eliminando la pasividad y el miedo exagerado. Así que es la presencia de control, no la ausencia de control, lo que se detecta & # 8230 & # 8221
  • Tercero: ESPERAR. & # 8220Después de que se activa el circuito ACT del núcleo del rafe preimbico-dorsal, se produce un conjunto de cambios que requieren varias horas en esta vía e implican la formación de nuevas proteínas relacionadas con la plasticidad. Este es ahora un circuito que EXPECTA el control & # 8230 Sin embargo, debe entenderse claramente que esta EXPECTATIVA puede no ser un proceso o entidad cognitiva como los psicólogos tienden a verlos. Es un circuito que proporciona una función expectativa, en el sentido de que cambia o sesga la forma en que los organismos responden en el futuro como consecuencia de los eventos que ocurren en el presente. & # 8221

En resumen, los investigadores afirman que, como afirmaba la teoría original, los organismos son sensibles a la dimensión del control, y esta dimensión es fundamental. Sin embargo, la parte de la dimensión que se detecta o se espera ahora parece estar la presencia de control, no la ausencia de control& # 8220. Sin embargo, de manera crucial, también afirman lo siguiente:

& # 8220 En el nivel psicológico, hay varios otros cabos sueltos. Como afirmación general, los procesos neuronales en la corteza prefrontal se estrechan por el estrés (Arnsten, 2015). Así, el hecho de que en una situación aversiva el cerebro parezca detectar el control como ingrediente activo más que una falta de control, no significa que el cerebro no pueda detectar la falta de control en otro tipo de circunstancias, como la comida incontrolable o la falta de control cognitiva. problemas, o incluso ruidos fuertes.

Es decir, los hallazgos que hemos revisado no implican que el cerebro no tenga circuitos para detectar la no contingencia entre eventos que incluyen acciones y resultados. Más bien, puede ser que este procesamiento pueda ocurrir, pero no se implemente en situaciones que son altamente aversivas, como los experimentos de impotencia originales. Por tanto, es importante distinguir entre lo que hace el cerebro en determinadas condiciones y lo que es capaz de hacer en distintas condiciones. Esta posibilidad necesita más investigación. & # 8221

La complejidad de este fenómeno se apoya a través de otras investigaciones sobre el tema, como la investigación que muestra que la indefensión aprendida se puede adquirir de manera indirecta, al ver las experiencias de otra persona, incluso si usted mismo no tuvo esas experiencias.

En general, los mecanismos detrás de la indefensión aprendida son objeto de mucha investigación.

Al centrarse en la indefensión aprendida tal como se adquirió en el contexto de los experimentos iniciales sobre el tema, y ​​particularmente en situaciones en las que los animales estaban expuestos a un shock que no pueden controlar, la teoría original era que los animales que experimentan situaciones incontrolables detectan que incontrolabilidady espere que ocurra en situaciones futuras.

Una teoría más reciente, que se basa en la investigación neurocientífica sobre el tema, sugiere que la pasividad en respuesta al shock es el comportamiento predeterminado, no aprendido, y que los animales pueden aprender a superarlo detectando la respuesta de controlabilidad.

Sin embargo, esto no explica necesariamente cómo se adquiere la indefensión aprendida en todos los casos, ya que puede haber variabilidad en términos de cómo la adquieren diferentes organismos en diferentes situaciones. Por ejemplo, un ratón expuesto a un impacto podría desarrollar una indefensión aprendida de una manera diferente a un estudiante que desarrolle una indefensión aprendida como resultado de la retroalimentación negativa en la escuela.

Sin embargo, Desde una perspectiva práctica, cuando se trata de comprender por qué las personas, incluido usted mismo, muestran una indefensión aprendida, el factor clave es generalmente la incapacidad de controlar los resultados de las situaciones en las que se encuentran. En consecuencia, las personas que experimentan situaciones en las que lo hacen no tienen la capacidad de controlar los resultados se espera que muestren más desamparo aprendido que las personas que experimentan situaciones en las que sí tienen la capacidad de controlar los resultados.

Desamparo objetivo vs subjetivo

Al considerar el concepto de desamparo aprendido, puede ser útil comprender la diferencia entre dos tipos de desamparo:

  • Desamparo objetivo.Desamparo objetivo es un estado en el que alguien no puede hacer nada para afectar el resultado de una situación.
  • Desamparo subjetivo.Desamparo subjetivo es un estado mental donde alguien cree que no pueden hacer nada para afectar el resultado de una situación.

Los estudios sobre la indefensión aprendida se ocupan principalmente de situaciones en las que las personas que experimentaron una indefensión objetiva terminan desarrollando una indefensión subjetiva, que se traslada a otras situaciones en las que no están objetivamente indefensas.


Resultados

La manipulación del sesgo de decisión afecta la acumulación de evidencia sensorial

En tres sesiones de grabación de EEG, los participantes humanos (N = 16) vieron un flujo continuo de texturas de líneas horizontales, verticales y diagonales alternando a una velocidad de 25 texturas / segundo. La tarea de los participantes era detectar un cuadrado con orientación definida presentado en el centro de la pantalla e informarlo presionando un botón (Figura 2A). Los ensayos consistieron en una secuencia de texturas de orden fijo incrustadas en el flujo continuo (duración total de la secuencia 1 s). Un cuadrado apareció en la quinta textura de una prueba en el 75% de las presentaciones (pruebas objetivo), mientras que en el 25% apareció una textura diagonal homogénea en la quinta posición (pruebas sin objetivo). Aunque el inicio de una prueba dentro del flujo continuo de texturas no se indicó explícitamente, la distribución similar de los tiempos de reacción en las pruebas objetivo y no objetivo sugiere que los participantes utilizaron la estructura temporal de la tarea incluso cuando no apareció ningún objetivo (Figura 2 — figura suplementaria 1A ). Las modulaciones de potencia del EEG consistentes y significativas después del inicio del ensayo (incluso para ensayos sin objetivo) confirman aún más que los sujetos registraron inicios del ensayo en ausencia de una señal explícita, usando plausiblemente el inicio de una secuencia de textura de orden fijo como una señal implícita (Figura 2 — suplemento de figura 1B).

El sesgo de decisión estratégica se desplaza hacia la acumulación de evidencia de sesgos liberales.

(A) Esquema del estímulo visual y diseño de tareas. Los participantes vieron un flujo continuo de texturas de pantalla completa orientadas en diagonal, horizontal y vertical a una velocidad de presentación de 40 ms (25 Hz). Después de intervalos aleatorios entre ensayos, se presentó una secuencia de orden fijo incrustada en la secuencia. La quinta textura en cada secuencia consistía en una única orientación diagonal (objetivo ausente), o contenía un cuadrado definido por la orientación ortogonal (orientación de 45 ° o 135 °). Los participantes decidieron si acababan de ver un objetivo, informando los objetivos detectados presionando un botón. Las condiciones liberales y conservadoras se administraron en bloques alternos de nueve minutos penalizando los fallos o las falsas alarmas, respectivamente, utilizando tonos aversivos y deducciones monetarias. Los tamaños del cuadrado y de los puntos de fijación representados no están a escala. (B) Tasas de detección promedio (aciertos y falsas alarmas) durante ambas condiciones.La tasa de fallos es igual a 1: tasa de aciertos, ya que ambos se calculan en pruebas de presencia de estímulo, y la tasa de rechazo correcto es igual a 1: tasa de falsas alarmas, ya que ambas se calculan en pruebas de ausencia de estímulo, y juntas producen las cuatro categorías de respuesta de estímulo SDT. (C) Parámetros SDT para sensibilidad y criterio. (D) Ecuación esquemática y simplificada del modelo de difusión de deriva que tiene en cuenta las distribuciones del tiempo de reacción para las decisiones de objetivo presente y objetivo implícito informadas activamente. El sesgo de decisión en este modelo se puede implementar cambiando el punto de partida del proceso de acumulación de evidencia (Z), o agregando una constante independiente de la evidencia ("sesgo de deriva", db) a la tasa de deriva. Consulte el texto y la Figura 1 para obtener más detalles. Notación: dy, cambio en la variable de decisión y por unidad de tiempo dt v · dt, deriva media (multiplicada por uno para ensayos de señal + ruido (objetivo) y −1 para ensayos de solo ruido (no objetivo)) db · dt, sesgo de deriva y cdW, ruido blanco gaussiano (media = 0, varianza = c2 · dt). (mi) Diferencia en las estimaciones de bondad de ajuste del Criterio de Información Bayesiano (BIC) para el sesgo de deriva y los modelos de punto de partida. Un valor delta BIC más bajo indica un mejor ajuste, lo que muestra la superioridad del modelo de sesgo de deriva para dar cuenta de los resultados observados. (F) Parámetros del modelo estimados para la tasa de deriva y el sesgo de deriva en el modelo de sesgo de deriva. Barras de error, SEM en 16 participantes. *** p & lt0.001 n.s., no significativo. El panel D. está modificado y reproducido con permiso de de Gee et al. (2017) (Figura 4A, publicada bajo una licencia CC BY 4.0).

Figura 2: datos de origen 1

Esta tabla csv contiene los datos de los paneles B, C, E y F. de la Figura 2.

Al alternar bloques de ensayos de nueve minutos, sesgamos activamente las decisiones de percepción de los participantes indicándoles que informaran tantos objetivos como fuera posible ('¡Detecte tantos objetivos como sea posible!', Condición liberal), o que solo informen objetivos de alta certeza ( "¡Presione sólo si está realmente seguro!", Condición conservadora). Los participantes eran libres de responder en cualquier momento durante un bloqueo cada vez que detectaban un objetivo. Un ensayo se consideró una respuesta de presente objetivo cuando se presiona un botón antes de que finalizara la secuencia de orden fijo (es decir, dentro de 0,84 s después del inicio de la quinta textura que contiene el (no) objetivo, ver Figura 2A). Proporcionamos retroalimentación auditiva y aplicamos sanciones monetarias después de que no se alcanzaran los objetivos en la condición liberal y después de falsas alarmas en la condición conservadora (Figura 2A, consulte Materiales y métodos para obtener más detalles). El número medio de ensayos para cada categoría de SDT entre los participantes fue de 1206 aciertos, 65 falsas alarmas, 186 fallos y 355 rechazos correctos en la condición liberal, y 980 aciertos, 12 falsas alarmas, 419 fallos y 492 rechazos correctos en la condición conservadora.

Los participantes adoptaron de manera confiable el cambio de sesgo de decisión previsto en las dos condiciones, como lo muestra tanto la tasa de aciertos como la tasa de falsas alarmas disminuyendo en conjunto como consecuencia de un sesgo más conservador (Figura 2B). La diferencia entre la tasa de aciertos y la tasa de falsas alarmas no fue modulada significativamente por las manipulaciones de sesgo experimentales (p = 0,81, prueba de permutación de dos lados, 10,000 permutaciones, ver Figura 2B). Sin embargo, el rendimiento de detección de objetivos se calculó con SDT estándar D' (sensibilidad perceptiva, que refleja la distancia entre el ruido y las distribuciones de la señal en la Figura 1A) (Green y Swets, 1966) fue ligeramente más alta durante el período conservador (liberal: D'= 2,0 (d.e. 0,90) versus conservador: D'= 2,31 (d.e. 0,82), p = 0,0002, consulte la Figura 2C, barras de la izquierda). Cuantificamos el sesgo de decisión utilizando la medida de criterio estándar de SDT C, en el que los valores positivos y negativos reflejan sesgos conservadores y liberales, respectivamente (ver las líneas verticales azul y roja en la Figura 1A). Esto descubrió un fuerte cambio de sesgo inducido experimentalmente de la condición conservadora a la liberal (liberal: C = - 0,13 (d.e. 0,4), versus conservador: C = 0,73 (d.e. 0,36), p = 0,0001, ver Figura 2C), así como un sesgo promedio conservador en las dos condiciones (C = 0,3 (d.e. 0,31), p = 0,0013).

Debido a que el marco de SDT es estático a lo largo del tiempo, investigamos más a fondo cómo el sesgo afectó a varios componentes del proceso de decisión dinámica al ajustar diferentes variantes del modelo de difusión de deriva (DDM) a los datos de comportamiento (Figura 1B, C) (Ratcliff y McKoon, 2008). ). El DDM postula que las decisiones perceptivas se alcanzan acumulando evidencia sensorial ruidosa hacia uno de los dos límites de decisión que representan las alternativas de elección. Cruzar uno de estos límites puede desencadenar un informe de comportamiento explícito para indicar la decisión (para respuestas de objetivo presente en nuestro experimento), o permanecer implícito (es decir, sin respuesta activa, para decisiones de objetivo ausente en nuestro experimento). El DDM captura el proceso de decisión dinámica mediante la estimación de parámetros que reflejan la tasa de acumulación de evidencia (tasa de deriva), la separación entre los límites, así como el tiempo necesario para la codificación del estímulo y la ejecución de la respuesta (tiempo sin decisión) (Ratcliff y McKoon, 2008). El DDM puede estimar estos parámetros basándose en la forma de las distribuciones de RT para decisiones informadas activamente (objetivo-presente) junto con el número total de ensayos en los que no se produjo respuesta (es decir, decisiones implícitas de objetivo-ausente) (Ratcliff et al. , 2018).

Ajustamos dos variantes del DDM para distinguir entre dos posibles mecanismos que pueden provocar un cambio en el sesgo de elección: uno en el que el punto de partida de la acumulación de evidencia se acerca a uno de los límites de decisión ('modelo de punto de partida', Figura 1B) (Mulder et al., 2012), y uno en el que la tasa de deriva en sí está sesgada hacia uno de los límites (de Gee et al., 2017) ('modelo de sesgo de deriva', ver Figura 1C, referido como criterio de deriva por Ratcliff y McKoon (2008)). El parámetro de sesgo de deriva se determina estimando la contribución de una constante independiente de la evidencia agregada a la deriva (Figura 2D). En los dos modelos respectivos, liberamos el parámetro de sesgo de deriva (db, ver Figura 2D) para las dos condiciones mientras se mantiene el punto de inicio (z) fijo en todas las condiciones (para el modelo de sesgo de deriva), o viceversa (para el punto de partida modelo). Permitir que solo un parámetro a la vez variara libremente entre las condiciones nos permitió comparar directamente los modelos sin tener que penalizar a ninguno de los modelos por el número de parámetros libres. Estos modelos alternativos hacen diferentes predicciones sobre la forma de las distribuciones de RT en combinación con los índices de respuesta: un cambio en el punto de partida da como resultado más opciones de presencia de objetivo, particularmente para RT cortos, mientras que un cambio en el sesgo de deriva aumenta con el tiempo, lo que resulta en más opciones de objetivo-presente también para RT más largos (de Gee et al., 2017 Ratcliff y McKoon, 2008 Urai et al., 2018). Las distribuciones de RT por encima y por debajo de los gráficos de acumulación de evidencia en la Figura 1B y C ilustran estos diferentes efectos. En ambos modelos, todos los parámetros relacionados con la ausencia de sesgo (tasa de deriva v, separación de los límites ay tiempo de no decisión u + w, ver Figura 2D) también pudieron variar según la condición.

Descubrimos que el modelo de punto de partida proporcionaba un ajuste peor a los datos que el modelo de sesgo de deriva (modelo de punto de partida, Criterio de información bayesiano (BIC) = 7938 modelo de sesgo de deriva, BIC = 7926, Figura 2E, consulte Materiales y métodos para obtener más detalles) . Específicamente, para 15/16 participantes, el modelo de sesgo de deriva proporcionó un mejor ajuste que el modelo de punto de partida, para 12 de los cuales delta BIC & gt6, lo que indica una fuerte evidencia a favor del modelo de sesgo de deriva (Kass y Raftery, 1995). Sin embargo, a pesar del BIC más bajo para el modelo de sesgo de deriva, notamos que, a simple vista, ambos modelos proporcionan ajustes igualmente razonables para las distribuciones de RT de un solo participante (Figura 2 — Figura 2). Por último, comparamos estos dos modelos con un modelo en el que tanto el sesgo de deriva como el punto de partida se fijaron en las condiciones, al tiempo que permitían que los parámetros no relacionados con el sesgo variaran según la condición. Este modelo proporcionó la bondad de ajuste más baja (delta BIC & gt6 para ambos modelos para todos los participantes).

Dado el rendimiento superior del modelo de sesgo de deriva (en términos de BIC), caracterizamos aún más la toma de decisiones bajo la manipulación del sesgo utilizando estimaciones de parámetros de este modelo (ver más abajo donde revisamos la inverosimilitud del modelo de punto de partida al inspeccionar la falta de pre -Efectos basales del estímulo en la corteza sensorial o motora). La tasa de deriva, que refleja la capacidad de los participantes para discriminar objetivos y no objetivos, fue algo mayor en la condición conservadora en comparación con la liberal (liberal: v = 2,39 (de 1,07), frente a conservadora: v = 3,06 (de 1,16), p = 0,0001 , prueba de permutación, Figura 2F, barras de la izquierda). Correlaciones casi perfectas entre los participantes en ambas condiciones entre la tasa de deriva de DDM y SDT D' proporcionó una fuerte evidencia de que el parámetro de la tasa de deriva captura la sensibilidad perceptiva (liberal, r = 0,98, p = 1e –10 conservador, r = 0,96, p = 5e –9, ver Figura 2 — suplemento de figura 3A). Con respecto a los parámetros de sesgo de DDM, el parámetro de punto de partida con condición fija en el modelo de sesgo de deriva fue menor que la mitad de la separación del límite (es decir, más cercano al límite de ausencia del objetivo (z = 0.24 (sd 0.06), p & lt0.0001, comparado con 0.5 )), lo que indica un punto de partida conservador general a través de las condiciones (Figura 2 — suplemento de figura 3D), en línea con el criterio de SDT positivo general (ver Figura 2C, panel derecho). Sin embargo, sorprendentemente, mientras que el parámetro de sesgo de deriva no fue en promedio diferente de cero en la condición conservadora (db = –0.04 (sd 1.17), p = 0.90), el sesgo de deriva fue fuertemente positivo en la condición liberal (db = 2.08 (sd 1.0), p = 0.0001 liberal vs conservador: p = 0.0005 Figura 2F, barras de la derecha). El punto de partida conservador general combinado con un sesgo de deriva neutral específico de la condición explicó el sesgo de decisión conservador (cuantificado por el criterio de SDT) en la condición conservadora (Figura 2C). Asimismo, en la condición liberal, el punto de partida conservador general combinado con un sesgo de deriva positivo específico de la condición (empujando la deriva hacia el límite objetivo-presente) explicó el sesgo neutral observado con el criterio SDT (C alrededor de cero para liberal, consulte la Figura 2C).

Convergente con estos resultados de modelado, el sesgo de deriva estuvo fuertemente anti-correlacionado entre los participantes con el criterio de SDT (r = –0.89 para ambas condiciones, p = 4e –6) y el tiempo de reacción promedio (liberal, r = –0.57, p = 0.02 conservador , r = –0,82, p = 1e –4, ver Figura 2 — suplemento de figura 3B C). Las fuertes correlaciones entre la tasa de deriva y D' por un lado, y el sesgo de deriva y C por otro, proporcionar evidencia convergente de que los marcos SDT y DDM capturan mecanismos subyacentes similares, mientras que el DDM captura adicionalmente la naturaleza dinámica de la toma de decisiones perceptual al vincular la manipulación del sesgo de decisión con el proceso de acumulación de evidencia en sí. Como control, también correlacionamos el punto de partida con el criterio, y encontramos que las correlaciones eran algo más débiles en ambas condiciones (liberal, r = –0,75. Conservador, r = –0,77), lo que sugiere que el parámetro de sesgo de deriva capturó mejor el sesgo de decisión como instanciado por SDT.

Finalmente, la manipulación del sesgo también afectó a otros dos parámetros en el modelo de sesgo de deriva que no estaban directamente relacionados con la acumulación de evidencia sensorial: la separación de los límites fue leve pero confiablemente más alta durante la condición liberal en comparación con la conservadora (p & lt0,0001), y la no decisión el tiempo (que comprende el tiempo necesario para la codificación sensorial y la ejecución de la respuesta motora) fue más corto durante la fase liberal (p & lt0.0001) (Figura 2 — suplemento de figura 3D). En conclusión, la variante de sesgo de deriva del modelo de difusión de deriva explicó mejor cómo los participantes se ajustaron a las manipulaciones del sesgo de decisión. En las siguientes secciones, utilizamos el análisis espectral de las grabaciones de EEG simultáneas para identificar un mecanismo neural plausible que refleja la acumulación de evidencia sensorial sesgada.

Las texturas relevantes para la tarea inducen respuestas relacionadas con los estímulos en la corteza visual

La acumulación de evidencia sensorial en una tarea de detección de un objetivo visual presumiblemente se basa en señales relacionadas con el estímulo procesadas en la corteza visual. Tales señales relacionadas con los estímulos se reflejan típicamente en la actividad de la población cortical que exhibe una estructura temporal rítmica (Buzsáki y Draguhn, 2004). Específicamente, el procesamiento de abajo hacia arriba de la información visual se ha relacionado previamente con una mayor actividad electrofisiológica de alta frecuencia (& gt40 Hz, es decir, gamma) sobre la corteza visual (Bastos et al., 2015 Michalareas et al., 2016 Popov et al., 2017 van Kerkoerle et al., 2014). La Figura 3 muestra agrupaciones significativas de electrodo por tiempo por frecuencia de potencia de EEG bloqueada por estímulo, normalizada con respecto al período de referencia previo al ensayo específico de la condición (–0,4 a 0 s). Observamos un total de cuatro modulaciones distintas relacionadas con el estímulo, que emergieron después del inicio del objetivo y disminuyeron alrededor del tiempo de respuesta: dos en el rango de alta frecuencia (& gt36 Hz, Figura 3A (arriba) y Figura 3B) y dos en el rango bajo -rango de frecuencia (& lt36 Hz, Figura 3A (abajo) y Figura 3C). Primero, encontramos una modulación espacialmente focal en un rango de frecuencia estrecho alrededor de 25 Hz que refleja el potencial evocado visual en estado estable (SSVEP) que surge del arrastre por la frecuencia de estimulación visual de nuestro paradigma experimental (Figura 3A, panel inferior), así como un segunda modulación de 42 a 58 Hz que comprende el armónico del SSVEP (Figura 3A, panel superior). Ambas modulaciones de frecuencia SSVEP tienen una distribución topográfica similar (véanse los paneles de la izquierda de la Figura 3A).

Modulaciones de potencia espectral de EEG relacionadas con el procesamiento de estímulos y la respuesta motora.

Cada fila de panel representa un grupo tridimensional (electrodos por tiempo por frecuencia) de modulación de potencia, bloqueado en el tiempo tanto para el inicio de prueba (dos paneles izquierdos) como para presionar el botón (dos paneles derechos). La modulación de potencia fuera de los grupos importantes está enmascarada. La modulación se calculó como el cambio porcentual de la señal desde el período previo al estímulo específico de la condición (–0,4 a 0 s) y se promedió entre las condiciones. Los mapas topográficos del cuero cabelludo muestran la extensión espacial de los conglomerados integrando la modulación en bins de tiempo-frecuencia. Las representaciones de tiempo-frecuencia (TFR) muestran modulación integrada sobre electrodos indicada por círculos negros en los mapas del cuero cabelludo. Los tamaños de los círculos indican el peso del electrodo en términos de proporción de contenedores de tiempo-frecuencia que contribuyen al TFR. Los valores de p por encima de los mapas del cuero cabelludo indican la significación de agrupaciones corregida por comparación múltiple utilizando una prueba de permutación entre los participantes (bilateral, N = 14). Las líneas verticales continuas indican el momento del inicio de la prueba (izquierda) o la presión del botón (derecha), las líneas verticales punteadas indican el tiempo de inicio (no) del objetivo. Integr. M., modulación de potencia integrada. SSVEP: potenciales evocados visuales en estado estable. (A) (Arriba) Grupo de 42–58 Hz (armónico SSVEP). (A) (Fondo). Grupo posterior de 23-27 Hz (SSVEP). (B) Cúmulo posterior de 59-100 Hz (gamma). Los grupos en A (arriba) y B eran parte de un grupo grande (de ahí el mismo valor p), y se dividieron en base al fuerte aumento de modulación precisamente en el rango de 42 a 58 Hz. (C) Grupo de supresión de 12–35 Hz (beta) ubicado más posteriormente alineado al inicio de prueba, y más a la izquierda central cuando se alinea al presionar un botón.

En tercer lugar, observamos una modulación de potencia de 59-100 Hz (gamma) (Figura 3B), después de controlar cuidadosamente los artefactos de EEG de alta frecuencia debidos a pequeños movimientos oculares de fijación (microsacadas) al eliminar la actividad relacionada con las microsacadas de los datos (Hassler et al. ., 2011 Hipp y Siegel, 2013 Yuval-Greenberg et al., 2008), y suprimiendo la actividad EEG no neural a través de la transformación de densidad de corriente del cuero cabelludo (SCD) (Melloni et al., 2009 Perrin et al., 1989) (ver Materiales y métodos para más detalles). Es importante destacar que la topografía de la modulación gamma observada se limitó a los electrodos posteriores, en línea con el papel de la gamma en el procesamiento ascendente en la corteza visual (Ni et al., 2016). Finalmente, observamos la supresión de la actividad beta de baja frecuencia (11-22 Hz) en la corteza posterior, que típicamente ocurre en paralelo con una mayor actividad gamma inducida por estímulos (Donner y Siegel, 2011 Kloosterman et al., 2015a Meindertsma et al., 2017 Werkle-Bergner et al., 2014) (Figura 3C). Con respuesta bloqueada, este grupo fue más pronunciado sobre la corteza motora izquierda (electrodo C4), posiblemente debido a la presión del botón derecho que los participantes usaron para indicar la detección del objetivo (Donner et al., 2009). En las siguientes secciones, caracterizamos estas señales por separado para las dos condiciones, investigando las señales relacionadas con el estímulo dentro de una combinación de 11 electrodos occipito-parietales basados ​​en la mejora gamma en la Figura 3B (Oz, POz, Pz, PO3, PO4 y P1 a P6) y señales relacionadas con el motor en la supresión beta del hemisferio izquierdo (LHB) en el electrodo C4 (Figura 3C) (O'Connell et al., 2012).

Cursos de tiempo de modulación de potencia EEG consistentes con el modelo de desviación de deriva

Nuestros resultados de comportamiento sugieren que los participantes sesgaron la acumulación de evidencia sensorial en la condición liberal, en lugar de cambiar su punto de partida. A continuación, buscamos proporcionar evidencia convergente para esta conclusión examinando la actividad previa al estímulo, la actividad posterior al estímulo y la actividad del EEG relacionada con el motor. Siguiendo estudios previos, planteamos la hipótesis de que un sesgo de punto de partida se reflejaría en una diferencia en la actividad de la línea de base pre-motora entre las condiciones antes del inicio del proceso de decisión (Afacan-Seref et al., 2018 de Lange et al., 2013), y / o en una diferencia en la actividad previa al estímulo, como se ve en las señales de potencia gamma y SSVEP relacionadas con el estímulo de abajo hacia arriba (la Figura 4A muestra los grupos relevantes derivados de la Figura 3). Por lo tanto, primero investigamos la línea de tiempo de la potencia bruta en el rango SSVEP, gamma y LHB entre condiciones (ver Figura 4B). Ninguno de estos marcadores mostró una diferencia significativa en la actividad basal previa al estímulo. La comparación estadística de la actividad previa al estímulo bruta entre liberal y conservador en un intervalo de línea de base entre –0,4 y 0 s antes del inicio del ensayo arrojó p = 0,52, p = 0,51 yp = 0,91, pruebas de permutación, para las señales respectivas. Esto confirma un punto de partida muy similar de acumulación de evidencia en todas estas señales. A continuación, predijimos que un cambio en el sesgo de deriva se reflejaría en una pendiente más pronunciada de la actividad de rampa posterior al estímulo (que condujo a la decisión). Razonamos que la mejor manera de determinar dicho efecto sería basar la actividad en el intervalo anterior al inicio del estímulo (utilizando el intervalo entre –0,4 a 0 s), de modo que cualquier efecto post-estímulo que encontremos no puede explicarse por pre -diferencias de estímulo (si las hubiera). El curso temporal de la actividad post-estímulo y de respuesta bloqueada después de la línea de base se puede encontrar en la Figura 4C. Las tres señales mostraron señales divergentes entre la condición liberal y conservadora después del inicio del juicio, en consonancia con los ajustes en el proceso de acumulación de pruebas.Específicamente, observamos niveles de modulación de pico más altos para la condición liberal en las tres señales bloqueadas por estímulo (p = 0.08, p = 0.002 yp = 0.023, pruebas de permutación para SSVEP, gamma y LHB, respectivamente), y encontramos una pendiente más pronunciada hacia presione el botón para LHB (p = 0.04). Finalmente, el potencial relacionado con el evento en la corteza motora también mostró una pendiente más pronunciada hacia el informe para liberal (p = 0.07, Figura 4, fila inferior, el gráfico de línea de base no es significativo para las señales en el dominio del tiempo debido a la eliminación media durante el preprocesamiento). Tomados en conjunto, estos hallazgos proporcionan evidencia convergente de que los participantes implementaron un sesgo de decisión liberal al ajustar la tasa de acumulación de evidencia hacia el límite de elección objetivo-presente, pero no su punto de partida. En las siguientes secciones, buscamos identificar un mecanismo neuronal que podría subyacer a estos sesgos en la tasa de acumulación de evidencia.

Las manipulaciones de tareas experimentales afectan el curso temporal de las señales de EEG relacionadas con el estímulo y el motor, pero no su punto de partida.

Potencia bruta durante todo el período de referencia y los cursos de tiempo de modulación de potencia bloqueados en el tiempo para iniciar la prueba y presionar un botón. (A) Grupos de electrodos relevantes y rangos de frecuencia (de la Figura 3): SSVEP posterior, gamma posterior y beta del hemisferio izquierdo (LHB). (B) El curso temporal de la potencia bruta en un amplio intervalo alrededor del estímulo –0,8 a 0,8 s ms para estos grupos. (C) Estímulo bloqueado y respuesta bloqueada porcentual de cambio de señal desde la línea de base (período de línea de base: –0,4 a 0 s). Barras de error, SEM. La barra horizontal negra indica una diferencia significativa entre las condiciones, corregida por grupos para una comparación múltiple (p & lt0.05, dos caras). SSVEP, potencial evocado visual en estado estacionario LHB, ERP beta hemisférico izquierdo, SCD potencial relacionado con eventos, densidad de corriente del cuero cabelludo.

El sesgo liberal se refleja en el realce theta mediofrontal previo al estímulo y la supresión alfa posterior

Dada la falta de diferencias previas al estímulo (punto de partida) en los rangos de frecuencia específicos involucrados en el procesamiento del estímulo o las respuestas motoras (Figura 4B), a continuación nos enfocamos en otras diferencias previas al estímulo que podrían ser la causa principal de las diferencias posteriores al estímulo. observamos en la Figura 4C. Para identificar tales señales a una resolución de alta frecuencia, calculamos la potencia espectral en una amplia ventana de tiempo desde –1 s hasta el inicio de la prueba. Luego realizamos una prueba de permutación basada en clústeres en todos los electrodos y frecuencias en el dominio de baja frecuencia (1–35 Hz), buscando modulaciones de potencia debido a nuestras manipulaciones experimentales. El poder espectral previo al estímulo de hecho descubrió dos modulaciones distintas en la condición liberal en comparación con la conservadora: (1) modulación theta en los electrodos mediofrontales y (2) modulación alfa en los electrodos posteriores. La Figura 5A muestra la diferencia entre la condición liberal y conservadora, confirmando grupos significativos (p & lt0.05, corregido por grupos para comparaciones múltiples) de theta mejorada (2-6 Hz) en electrodos frontales (Fz, Cz, FC1 y FC2), así como alfa suprimido (8-12 Hz) en un grupo de electrodos posteriores, incluidos los 11 electrodos seleccionados previamente en base a la modulación gamma post-estímulo (Figura 3). Las dos modulaciones no estaban correlacionadas entre los participantes (r = 0.06, p = 0.82), lo que sugiere que reflejan diferentes procesos neuronales relacionados con nuestras manipulaciones de tareas experimentales. Estos hallazgos son consistentes con la literatura que apunta a un papel de theta mediofrontal como una fuente de señales de control cognitivo que se originan en la corteza prefrontal (Cohen y Frank, 2009 van Driel et al., 2012) y alfa en la corteza posterior que refleja una prueba espontánea de -fluctuaciones del juicio en el sesgo de decisión (Iemi et al., 2017). El hecho de que estos efectos previos al estímulo ocurran como una función de nuestra manipulación experimental sugiere que son un sello distintivo del ajuste de sesgo estratégico, más que un mero correlato de cambios espontáneos en el sesgo de decisión. Es importante destacar que este hallazgo implica que los humanos son capaces de controlar activamente el poder alfa previo al estímulo en la corteza visual (posiblemente a través de señales descendentes de la corteza frontal), actuando de manera plausible para sesgar la acumulación de evidencia sensorial hacia la alternativa de respuesta que maximiza la recompensa.

La adopción de un sesgo de decisión liberal se refleja en un aumento de theta frontal medio y un poder alfa pre-estímulo suprimido.

(A) Grupos significativos de modulación de potencia entre liberales y conservadores en una ventana previa al estímulo entre -1 y 0 s antes del inicio del ensayo. Al realizar una prueba de permutación basada en conglomerados en todas las frecuencias (1–35 Hz) y electrodos, surgieron dos conglomerados significativos: theta (2–6 Hz, arriba) y alfa (8–12 Hz, abajo). Paneles de la izquierda: espectros de potencia bruta de la actividad neuronal previa al estímulo para conservadores y liberales por separado en los grupos significativos (con fines ilustrativos), Paneles intermedios: espectro de potencia bruta liberal - conservador. La barra horizontal negra indica un rango de frecuencia estadísticamente significativo (p & lt0.05, corregido por conglomerados para comparaciones múltiples, bilateral). Paneles derechos: correspondientes mapas topográficos del cuero cabelludo liberal - conservador de la diferencia de potencia bruta previa al estímulo entre las condiciones para la potencia theta del EEG (2–6 Hz) y la potencia alfa (8–12 Hz). Trazar convenciones como en la Figura 3. Barras de error, SEM entre los participantes (N = 15). (B) Distribuciones de densidad de probabilidad de los valores de potencia alfa de un solo ensayo para ambas condiciones, promediados entre los participantes.

El poder alfa previo al estímulo está relacionado con las respuestas gamma corticales

A continuación, preguntamos cómo la supresión de la actividad alfa previa al estímulo podría sesgar el proceso de acumulación de evidencia sensorial. Una posibilidad es que la supresión alfa influya en la acumulación de evidencia al modular la susceptibilidad de la corteza visual a la estimulación sensorial, un fenómeno denominado "excitabilidad neuronal" (Iemi et al., 2017 Jensen y Mazaheri, 2010). Exploramos esta posibilidad utilizando un modelo de ganancia de respuesta teórica formulado por Rajagovindan y Ding (2011). Este modelo postula que la relación entre la entrada sináptica total que recibe un conjunto neuronal y la actividad de salida total que produce se caracteriza por una función sigmoidea (Figura 6A), una noción que es biológicamente plausible (Destexhe et al., 2001 Freeman, 1979 ). En este modelo, la entrada sináptica total en la corteza visual consta de dos componentes: (1) entrada sensorial (es decir, debido a la estimulación sensorial) y (2) fluctuaciones en curso en la actividad neuronal generada endógenamente (es decir, no relacionada con los sentidos). En nuestro experimento, se puede suponer que la entrada sensorial en la corteza visual es idéntica en todos los ensayos, porque se presentó el mismo estímulo sensorial en cada ensayo (consulte la Figura 2A). Por el contrario, se cree que la entrada endógena varía de una prueba a otra, lo que refleja las fluctuaciones en los procesos cognitivos de arriba hacia abajo, como la atención. Se supone que estas fluctuaciones se reflejan en la fuerza de la supresión de potencia alfa, de modo que un alfa más débil se asocia con una mayor atención (Figura 6B). Dada la entrada constante sensorial y endógena variable combinada en cada prueba (ver el eje horizontal en la Figura 6A), la fuerza de las respuestas de salida de la corteza visual está determinada en gran medida por las variaciones de prueba a prueba en la potencia alfa (ver el eje vertical en la Figura 6A). Además, la forma sigmoidea de la función de entrada-salida da como resultado un rango efectivo en el centro del lado de entrada de la función que produce las respuestas de salida inducidas por estímulos más fuertes desde que la curva sigmoidea es más empinada. Matemáticamente, el efecto de la entrada endógena sobre las respuestas de salida inducidas por estímulos (ver intervalo marcado en la Figura 6A) se puede expresar como la derivada de primer orden o pendiente del sigmoide en la Figura 6A, que se conoce como ganancia de respuesta por Rajagovindan y Ding. (2011). Esta derivada se representa en la Figura 6B (líneas continuas azules y rojas) a través de los niveles de potencia alfa pre-estímulo, prediciendo una relación en forma de U invertida entre alfa y ganancia de respuesta en la corteza visual.

El poder alfa previo al estímulo está relacionado con las respuestas gamma corticales.

(A) Modelo de ganancia de respuesta teórica que describe la transformación de la actividad de entrada endógena e inducida por estímulos (denotado por SX y Snorte respectivamente) a la actividad de producción total (denotada por O (SX + Snorte)) en la corteza visual por una función sigmoidea. Diferentes rangos operativos alfa están asociados con funciones de entrada-salida con diferentes pendientes debido a los cambios correspondientes en la salida total. (B) Las respuestas de salida ligadas a alfa (líneas continuas) se formalizan como la primera derivada (pendiente) de las funciones sigmoidales (líneas de puntos), lo que da como resultado relaciones en forma de U invertida (gaussiana) entre alfa y gamma, lo que implica una ganancia de respuesta más fuerte en el liberal que en la condición conservadora. (C) Datos empíricos correspondientes que muestran la modulación gamma (mismas unidades de cambio de señal porcentual que en la Figura 3) como una función del intervalo alfa. La ubicación en el eje x de cada grupo alfa se tomó como el alfa medio de los ensayos asignados a cada grupo y se promedió entre los sujetos. (D-F) Pruebas de predicción de modelos. (D) Potencia alfa bruta previa al estímulo para ambas condiciones, promediada entre los sujetos. (mi) Modulación de potencia gamma posterior al estímulo para ambas condiciones promediadas en los dos grupos alfa intermedios (5 y 6) en el panel C. (F) Liberal: diferencia conservadora entre las curvas de ganancia de respuesta que se muestran en el panel C, centradas en el intervalo alfa. Barras de error, SEM intraindividual entre los participantes (N = 14).

Figura 6: datos de origen 1

Archivo .sav de SPSS que contiene los datos utilizados en los paneles C, E y F.

Con respecto a nuestras condiciones experimentales, el modelo no solo predice que la supresión del preestímulo alfa observada en la condición liberal refleja un cambio en el rango operativo de alfa (ver Figura 5B), sino que también aumenta la producción máxima de la corteza visual ( un cambio de la línea roja a la azul en la Figura 6A). Por lo tanto, la diferencia entre las condiciones de estímulo no se modela utilizando una única función de entrada-salida, sino que necesita un mecanismo adicional que cambie la relación de entrada-salida en sí. Se desconoce la naturaleza exacta de este mecanismo (ver también Discusión). Rajagovindan y Ding sugieren que los mecanismos de arriba hacia abajo modulan la actividad neuronal de prestimulus en curso para aumentar la pendiente de la función sigmoidea, pero a pesar de la actividad theta del frente medio que observamos, la evidencia de esta hipótesis es algo esquiva. No tenemos medios para establecer directamente si existe esta relación, y podemos simplemente reflexionar sobre el hecho de que este cambio en la función de entrada-salida es necesario para capturar los efectos específicos de la condición de la relación de entrada-salida, tanto en los datos de Rajagovindan como en Ding (2011) y en nuestros propios datos. Por lo tanto, a medida que el rango operativo de alfa se desplaza hacia la izquierda de conservador a liberal, la asíntota superior en la Figura 6A se mueve hacia arriba de manera que aumenta la actividad de producción máxima total. Esto, a su vez, afecta la relación en forma de U invertida entre alfa y ganancia en la corteza visual (línea azul en la Figura 6B), lo que lleva a una curva de respuesta más pronunciada en la condición liberal que se asemeja a una función gaussiana (en forma de campana).

Para investigar la ganancia de respuesta sensorial en diferentes niveles alfa en nuestros datos, usamos la actividad gamma posterior al estímulo (ver Figura 3B) como un proxy para la ganancia de salida ligada a alfa en la corteza visual (Bastos et al., 2015 Michalareas et al., 2016 Ni et al., 2016 Popov et al., 2017 van Kerkoerle et al., 2014). Aprovechamos la gran cantidad de ensayos por participante por condición (rango de 543 a 1391 ensayos) clasificando los ensayos de cada participante en diez contenedores de igual tamaño que varían de alfa débil a fuerte, por separado para las dos condiciones. Luego calculamos la modulación de potencia gamma promedio dentro de cada grupo alfa y finalmente trazamos la gamma promediada por los participantes en los grupos alfa para cada condición en la Figura 6C (consulte Materiales y métodos para obtener más detalles). De hecho, esto reveló una relación en forma de U invertida entre alfa y gamma en ambas condiciones, con una curva más pronunciada para la condición liberal.

Para evaluar la capacidad del modelo para explicar los datos, probamos estadísticamente tres predicciones derivadas del modelo. En primer lugar, el modelo predice un poder alfa previo al estímulo promedio más bajo para los liberales que para los conservadores debido al cambio en el rango operativo de alfa. Esto se confirmó en la Figura 6D (p = 0,01, prueba de permutación, ver también la Figura 5). En segundo lugar, el modelo predice una respuesta gamma más fuerte para liberales que para conservadores alrededor del pico de la curva de ganancia (el centro del rango alfa efectivo, ver Figura 6B), que de hecho observamos (p = 0.024, prueba de permutación en el promedio de los dos contenedores alfa del medio) (Figura 6E). Finalmente, el modelo predice que la diferencia entre las curvas de ganancia (cuando están alineadas sobre sus rangos efectivos en el eje x usando el número de bin alfa, como se muestra en la Figura 6 — figura suplementaria 1A) también se asemeja a una curva gaussiana (Figura 6— figura suplemento 1B). De acuerdo con esta predicción, observamos un efecto de interacción entre la condición (liberal, conservadora) y el número de intervalo (1-10) utilizando un contraste gaussiano estándar en un ANOVA de medidas repetidas de dos vías (F (1,13) = 4.6, p = 0,051, η 2 parcial = 0,26). La Figura 6F ilustra este hallazgo mostrando la diferencia entre las dos curvas en la Figura 6C en función del número de intervalo alfa (consulte la Figura 6, el suplemento de figura 1C para las curvas de ambas condiciones en función del número de intervalo alfa). Pruebas separadas posteriores para cada condición confirmaron una relación significativa en forma de U entre alfa y gamma en la condición liberal con un tamaño de efecto grande (F (1,13) = 7.7, p = 0.016, η 2 parcial = 0.37), pero no efecto significativo en la condición conservadora con sólo un tamaño de efecto pequeño (F (1,13) = 1,7, p = 0,22, η 2 parcial = 0,12), utilizando ANOVA de medidas repetidas unidireccionales con alfa bin (contraste gaussiano) como factor de interés.

Tomados en conjunto, estos hallazgos sugieren que la supresión alfa observada en el liberal en comparación con la condición conservadora impulsó la actividad inducida por estímulos, lo que a su vez podría haber sesgado indiscriminadamente la acumulación de evidencia sensorial hacia el límite de decisión objetivo-presente. En la siguiente sección, investigamos un vínculo directo entre el sesgo de deriva y la actividad inducida por estímulos medida a través de gamma.

La actividad gamma cortical visual predice la fuerza del sesgo de acumulación de evidencia

Los hallazgos presentados hasta ahora sugieren que, en el comportamiento, un sesgo de decisión liberal desplaza la acumulación de evidencia hacia las respuestas del objetivo presente (sesgo de deriva en el DDM), mientras que neuronalmente suprime el pre-estímulo alfa y mejora las respuestas post-estímulo gamma. En un análisis final, preguntamos si la modulación gamma agrupada en alfa está directamente relacionada con un sesgo de deriva más fuerte. Con este fin, aplicamos nuevamente el DDM de sesgo de deriva a los datos de comportamiento de cada participante, mientras que liberamos el parámetro de sesgo de deriva no solo para las dos condiciones, sino también para los 10 contenedores alfa para los que calculamos la modulación gamma (ver Figura 6C) . Probamos directamente la correspondencia entre el sesgo de deriva de DDM y la modulación gamma utilizando la correlación de medidas repetidas (Bakdash y Marusich, 2017), que tiene en cuenta todas las observaciones repetidas entre los participantes y controla la no independencia de las observaciones recopiladas dentro de cada participante (consulte Materiales y métodos). para detalles). De hecho, la modulación gamma se correlacionó con el sesgo de deriva en ambas condiciones (liberal, r (125) = 0,49, p = 5e-09 conservador, r (125) = 0,38, p = 9e-06) (Figura 7). Probamos la solidez de estas correlaciones excluyendo los puntos de datos que más contribuyeron a las correlaciones (según lo determinado con la distancia de Cook) y obtuvimos resultados cualitativamente similares, lo que indica que estas correlaciones no fueron impulsadas por valores atípicos (Figura 7, consulte Materiales y métodos para obtener más detalles). . Para descartar que el punto de partida podría explicar esta correlación, repetimos este análisis controlando el punto de partida de la acumulación de evidencia estimada por intervalo alfa dentro del modelo del punto de partida. Con este fin, hicimos una regresión de ambos parámetros de sesgo en gamma. Fundamentalmente, encontramos que en ambas condiciones el sesgo del punto de partida no predijo de forma única gamma al controlar el sesgo de deriva (liberal: F (1,124) = 5.8, p = 0.017 para el sesgo de deriva, F (1,124) = 0.3, p = 0.61 para el sesgo de derivación punto conservador: F (1,124) = 8.7, p = 0.004 para el sesgo de deriva, F (1,124) = 0.4, p = 0.53 para el punto de partida. Este hallazgo sugiere que el modelo de sesgo de deriva supera al modelo del punto de partida cuando se correlaciona con la potencia gamma. Como control final, también realizamos este análisis para la modulación de potencia SSVEP (23-27 Hz) (ver Figura 3B, abajo) y encontramos una relación similar en forma de U invertida entre alfa y SSVEP para ambas condiciones (Figura 7 — figura suplemento 1A), pero sin correlación con el sesgo de deriva (liberal, r (125) = 0,11, p = 0,72, conservador, r (125) = 0,22, p = 0,47) (Figura 7 — figura del suplemento 1B) o con el punto de partida ( liberal, r (125) = 0.08, p = 0.02, conservador, r (125) = 0.22, p = 0.95). Esto sugiere que el SSVEP está acoplado de manera similar a alfa como el gam inducido por estímulos ma, pero se ve menos afectado por las condiciones experimentales y no predice los cambios de sesgo de decisión. En conjunto, estos resultados sugieren que la modulación gamma agrupada en alfa subyace a la acumulación de evidencia sensorial sesgada.

La modulación gamma agrupada en alfa se correlaciona con el sesgo de acumulación de evidencia.

Correlación de medidas repetidas entre la modulación gamma y el sesgo de deriva para las dos condiciones. Cada círculo representa la modulación gamma de un participante dentro de un intervalo alfa. El sesgo de deriva y los escalares de modulación gamma se residualizaron eliminando el promedio dentro de cada participante y condición, eliminando así el rango específico en el que operaban los valores de los participantes. Las cruces indican los puntos de datos que fueron más influyentes para la correlación, identificados utilizando la distancia de Cook. Las correlaciones permanecieron sin cambios cualitativos cuando se excluyeron estos puntos de datos (liberal, r (120) = 0,46, p = 8e-07 conservador, r (121) = 0,27, p = 0,0009) Barras de error, intervalos de confianza del 95% después de promediar entre los participantes.

Figura 7: datos de origen 1

Archivo MATLAB .mat que contiene los datos utilizados.

Finalmente, preguntamos hasta qué punto el theta tónico mediofrontal mejorado puede haber mediado la relación entre la gamma agrupada en alfa y el sesgo de deriva. Para responder a esta pregunta, ingresamos el sesgo de deriva en un ANOVA de medidas repetidas de dos vías con factores theta y potencia gamma (todas las variables agrupadas en alfa), pero no encontramos evidencia de mediación de la relación de sesgo de deriva gamma por theta midfrontal (liberal, F (1,13) = 1,3, p = 0,25 conservador, F (1,13) = 0,003, p = 0,95). Al mismo tiempo, la relación de sesgo de deriva gamma se mantuvo cualitativamente sin cambios al controlar por theta (liberal, F (1,13) = 48,4, p & lt0,001 conservador, F (1,13) = 19,3, p & lt0,001).Por lo tanto, la theta mediofrontal mejorada en la condición liberal refleja plausiblemente una señal de arriba hacia abajo relacionada con la atención que indica la necesidad de control cognitivo para evitar perder objetivos, pero su amplitud no parecía estar directamente relacionada con la acumulación de evidencia sensorial mejorada, como se encontró para gamma. Este último hallazgo sugiere que la theta mejorada en la condición liberal sirvió como una señal de alarma que indica la necesidad de un cambio en la estrategia de respuesta, sin especificar exactamente cómo se iba a implementar este cambio (Cavanagh y Frank, 2014).


Control del motor

2.1 Unidades de movimiento y sus límites

Uno de los desafíos básicos en el estudio del control motor es la disección de unidades de movimiento fundamentales. En esta terminología un unidad es un patrón relativamente invariante de contracciones musculares que típicamente se provocan juntas. La referencia a una de las formas más complejas de control del movimiento humano, el habla, es ilustrativa (Neville 1995). Cuando hablamos, articulamos una serie de fonemas ampliamente invariantes (patrones de sonido básicos) en secuencia. Esto permite que la articulación del habla sea relativamente "libre de pensamientos" en el discurso normal, y permite al oyente decodificar el mensaje a través de una compleja serie de procesos cognitivos perceptivos y de orden superior (ver Aspectos sintácticos del lenguaje, base neural de Control del motor Lenguaje de señas: aspectos psicológicos y neuronales Procesos léxicos (conocimiento de palabras): aspectos psicológicos y neuronales Producción del habla, base neuronal de ). El ejemplo es útil porque, en el fluir fluido del habla, los fonemas individuales a menudo están "coarticulados" con los detalles finos de una unidad de sonido que refleja la producción de patrones de sonido anteriores y posteriores. Así que incluso aquí las propiedades "intrínsecas" de una unidad de habla pueden ser sensibles a las influencias extrínsecas definidas por otras unidades de habla. Esto es lo que le da al habla su naturaleza fluida y fluida (a diferencia, por ejemplo, de la mayoría de los "discursos" generados por computadora).

Así, en cierto sentido, el movimiento y sus "unidades" de control motor son abstracciones que con frecuencia se desdibujan en los bordes y que pueden definirse desde una serie de perspectivas complementarias (Golani 1992). En formas complejas de movimiento, como tocar un deporte o un instrumento musical, o bailar con un compañero en movimiento, muchas vías neuronales se organizan juntas en patrones deslumbrantes que están ampliamente distribuidos, ordenados en serie y paralelos en sus operaciones. Es por esta razón que la distinción misma entre los sistemas de control motor y otras propiedades del sistema nervioso a menudo es difícil de desentrañar (ver Visión para la acción: mecanismos neuronales Control cognitivo (funciones ejecutivas): papel de la corteza prefrontal ).


Habla inteligible a pesar de un entorno ruidoso

La profesora Dorothea Kolossa y Mahdie Karbasi del grupo de investigación Cognitive Signal Processing de Ruhr-Universit & aumlt Bochum (RUB) han desarrollado un método para predecir la inteligibilidad del habla en entornos ruidosos. Los resultados de sus experimentos son más precisos que los obtenidos mediante los métodos estándar aplicados hasta ahora. Por tanto, podrían facilitar el proceso de desarrollo de los audífonos. La investigación se llevó a cabo en el curso del proyecto financiado con fondos europeos "Mejora de la comunicación a través de la investigación auditiva aplicada", o "Puedo oír" para abreviar.

Los algoritmos específicos de los audífonos filtran los ruidos de fondo para garantizar que los usuarios puedan comprender el habla en cada situación, independientemente de si se encuentran en un restaurante lleno o cerca de una carretera con mucho tráfico. El desafío para los investigadores es mantener una alta calidad de transmisión de voz mientras se filtran los ruidos de fondo. Antes de que se lance al mercado un modelo de audífono optimizado, los nuevos algoritmos están sujetos a pruebas que requieren mucho tiempo.

Los investigadores y desarrolladores industriales realizan pruebas de audición con participantes humanos para analizar en qué medida los respectivos nuevos algoritmos garantizarán la inteligibilidad del habla. Si pudieran evaluar la inteligibilidad del habla de manera confiable en un proceso automatizado, podrían reducir las prácticas de prueba que consumen mucho tiempo.

Nuevo algoritmo desarrollado

Hasta la fecha, los enfoques estándar para predecir la inteligibilidad del habla han incluido el llamado método STOI (medida objetiva de inteligibilidad del habla a corto plazo) y otros métodos basados ​​en referencias. Estos métodos requieren una señal original clara, es decir, una pista de audio que se ha grabado sin ruidos de fondo. En función de las diferencias entre el sonido original y el filtrado, se estima el valor de la inteligibilidad del habla. Kolossa y Karbasi han encontrado una forma de predecir la inteligibilidad sin necesidad de una señal de referencia clara, que es aún más precisa que el método STOI. En consecuencia, los hallazgos de Kolossa y Karbasi podrían ayudar a reducir los procesos de prueba en la fase de desarrollo de productos de los audífonos.

Los investigadores de RUB han probado su método con 849 personas con audición normal. Con este fin, se pidió a los participantes que evaluaran archivos de audio a través de una plataforma en línea. Con la ayuda de su algoritmo, Kolossa y Karbasi estimaron qué porcentaje de una oración del archivo respectivo entenderían los participantes. Posteriormente, compararon su valor previsto con los resultados de la prueba.

Perspectiva de la investigación

En el siguiente paso, Kolossa y Karbasi tienen la intención de realizar las mismas pruebas con participantes con discapacidad auditiva. Están trabajando en algoritmos que pueden evaluar y optimizar la inteligibilidad del habla de acuerdo con el umbral de percepción individual o el tipo de discapacidad auditiva. En el mejor de los casos, el estudio proporcionará métodos para diseñar un audífono inteligente. Dichos audífonos podrían reconocer automáticamente el entorno y la situación actual del usuario. Si pasa de una calle tranquila a un restaurante, el audífono registraría un aumento de los ruidos de fondo. En consecuencia, filtraría los ruidos ambientales, si es posible sin perjudicar la calidad de la señal de voz.

Sobre el proyecto

El principal objetivo del proyecto "Mejora de la comunicación a través de la investigación auditiva aplicada" era optimizar los audífonos y los implantes cocleares para garantizar que cumplen su función para el usuario incluso en entornos muy ruidosos. Los investigadores de RUB trabajaron en un equipo internacional junto con investigadores del Reino Unido, Suiza, Dinamarca y Bélgica. El profesor Dr. Rainer Martin de la Facultad de Ingeniería Eléctrica y Tecnología de la Información de RUB dirigió el proyecto financiado con fondos europeos. Los socios industriales fueron el fabricante de audífonos Sivantos y la empresa de implantes cocleares Cochlear. "Puedo oír" terminó en diciembre de 2016.


Molly Crockett: "La neurociencia de la toma de decisiones morales"

Imagínese que pudiéramos desarrollar una droga precisa que amplifique la aversión de las personas a dañar a otros con esta droga, no dañará a una mosca, todos los que la toman se vuelven como monjes budistas. ¿Quién debería tomar este medicamento? Sólo criminales convictos: ¿personas que han cometido delitos violentos? ¿Deberíamos ponerlo en el suministro de agua? Estas son preguntas normativas. Estas son preguntas sobre lo que se debe hacer. Me siento muy mal preparado para responder estas preguntas con la capacitación que tengo, pero estas son conversaciones importantes entre disciplinas. Los psicólogos y neurocientíficos deben hablar con los filósofos sobre esto. Estas son conversaciones que necesitamos tener porque no queremos llegar al punto en el que tenemos la tecnología pero no hemos tenido esta conversación, porque entonces podrían suceder cosas terribles.

MOLLY CROCKETT es profesora asociada en el Departamento de Psicología Experimental de la Universidad de Oxford Wellcome Trust Postdoctoral Fellow, Wellcome Trust Center for Neuroimaging. Molly Crockett's Borde Página Bio

LA NEUROCIENCIA DE LA TOMA DE DECISIONES MORALES

Soy neurocientífico de la Universidad de Oxford en el Reino Unido. Me interesa la toma de decisiones, específicamente las decisiones que involucran compensaciones, por ejemplo, compensaciones entre mi propio interés y los intereses de otras personas, o compensaciones entre mis deseos presentes y mis metas futuras.

Un caso de estudio para esto es la toma de decisiones morales. Cuando podemos ver que hay una opción egoísta y podemos ver que hay una opción altruista o cooperativa, podemos razonar a través de la decisión, pero también hay sentimientos viscerales sobre lo que está bien y lo que está mal. He estudiado la neurobiología de la toma de decisiones morales, específicamente cómo diferentes sustancias químicas en nuestro cerebro (neuromoduladores) pueden moldear el proceso de tomar decisiones morales y empujarnos de una forma u otra cuando razonamos y decidimos.

Los neuromoduladores son sustancias químicas del cerebro. Hay varios sistemas neuromoduladores diferentes que cumplen funciones diferentes. Los eventos en el mundo activan estos sistemas y luego se infiltran en diferentes regiones del cerebro e influyen en la forma en que se procesa la información en esas regiones. Todos ustedes tienen experiencia con neuromoduladores. Algunos de ustedes están tomando tazas de café en este momento. Muchos de ustedes probablemente tomaron vino con la cena anoche. Quizás algunos de ustedes tengan otras experiencias que sean un poco más interesantes.

Pero no es necesario consumir drogas o alcohol para influir en su neuroquímica. También puede influir en su neuroquímica a través de eventos naturales: el estrés influye en su neuroquímica, sexo, ejercicio, cambios en su dieta. Hay todas estas cosas en el mundo que se alimentan de nuestro cerebro a través de estos sistemas químicos. Me he interesado en estudiar si cambiamos estos químicos en el laboratorio, ¿podemos causar cambios en el comportamiento de las personas y en su toma de decisiones?

Una cosa a tener en cuenta acerca de los efectos de estos diferentes químicos en nuestro comportamiento es que los efectos aquí son sutiles. Los tamaños del efecto son realmente pequeños. Esto tiene dos consecuencias para la investigación en esta área. La primera es que debido a que los tamaños del efecto son tan pequeños, es probable que la literatura publicada al respecto no tenga la suficiente potencia. Probablemente haya muchos falsos positivos por ahí. Oímos anteriormente que hay mucho pensamiento sobre esto en la ciencia, no solo en la psicología sino en toda la ciencia sobre cómo podemos hacer experimentos con mejor potencia y cómo podemos crear un conjunto de datos que nos dirán lo que está sucediendo.

La otra cosa, y esto es lo que me ha interesado, es que debido a que los efectos de los neuromoduladores son tan sutiles, necesitamos medidas precisas en el laboratorio de los comportamientos y procesos de decisión que nos interesan. Es solo con medidas precisas que vamos a ser capaces de captar estos efectos sutiles de la química cerebral, que tal vez a nivel individual no van a hacer una diferencia dramática en la personalidad de alguien, pero a nivel agregado, en comportamientos colectivos como la cooperación y el público. problemas de bienes, estos pueden llegar a ser importantes a escala mundial.

¿Cómo podemos medir la toma de decisiones morales en el laboratorio de una manera precisa, y también de una manera en la que podamos estar de acuerdo en que en realidad es moral? Éste es un punto importante. Un gran desafío en esta área es que hay mucho desacuerdo sobre lo que constituye un comportamiento moral. ¿Qué es moral? Escuchamos antes sobre la cooperación; tal vez algunas personas piensen que es una decisión moral, pero tal vez otras personas no. Ese es un problema real para lograr que la gente coopere.

Primero tenemos que elegir un comportamiento en el que todos estemos de acuerdo que es moral, y en segundo lugar tenemos que medirlo de una manera que nos diga algo sobre el mecanismo. Queremos tener estos ricos conjuntos de datos que nos informen sobre estas diferentes partes móviles, estas diferentes piezas del rompecabezas, y luego podemos ver cómo se asignan a diferentes partes del cerebro y diferentes sistemas químicos.

Lo que voy a hacer durante los próximos 20 minutos es llevarlos a través de mi proceso de pensamiento durante los últimos años. Probé un montón de formas diferentes de medir los efectos de la neuroquímica en lo que en un momento creo que es la toma de decisiones morales, pero luego resulta que tal vez no sea la mejor manera de medir la moralidad. Y les mostraré cómo traté de acercarme a formas más avanzadas y sofisticadas de medir las cogniciones y emociones que nos importan en este contexto.

Cuando comencé este trabajo hace varios años, estaba interesado en el castigo y los juegos económicos que puedes usar para medir el castigo; si alguien te trata injustamente, puedes gastar un poco de dinero para quitarle dinero. Estaba interesado específicamente en los efectos de una sustancia química cerebral llamada serotonina sobre el castigo. Los problemas de los que hablaré aquí no son específicos de la serotonina, pero se aplican a esta pregunta más importante de cómo podemos cambiar la toma de decisiones morales.

Cuando comencé este trabajo, la opinión predominante sobre el castigo era que el castigo era un comportamiento moral, un castigo moralista o altruista en el que se sufre un costo para hacer cumplir una norma social para un bien mayor. Resultó que la serotonina era una sustancia química interesante para estudiar en este contexto porque la serotonina tiene una larga tradición de estar asociada con el comportamiento prosocial. Si aumenta la función de la serotonina, esto hace que las personas sean más prosociales. Si agota o deteriora la función de la serotonina, esto hace que las personas sean antisociales. Si sigue la lógica de que el castigo es algo moral, entonces si aumenta la serotonina, eso debería aumentar el castigo. Lo que realmente vemos en el laboratorio es el efecto contrario. Si aumenta la serotonina, la gente castiga menos y si disminuye la serotonina, la gente castiga más.

Eso complica un poco la idea de que el castigo es un acto de mentalidad exclusivamente prosocial. Y esto tiene sentido si simplemente haces una introspección en los tipos de motivaciones por las que pasas si alguien te trata injustamente y tú lo castigas. No sé ustedes, pero cuando eso me pasa a mí no estoy pensando en hacer cumplir una norma social o el bien común, solo quiero que ese chico sufra, solo quiero que se sienta mal porque me hizo sentir mal.

La neuroquímica agrega una capa interesante a esta gran pregunta de si el castigo está motivado prosocialmente, porque de alguna manera es una forma más objetiva de verlo. La serotonina no tiene una agenda de investigación, es solo una sustancia química. Teníamos todos estos datos y comenzamos a pensar de manera diferente sobre las motivaciones del llamado castigo altruista. Eso inspiró un estudio puramente conductual donde le damos a las personas la oportunidad de castigar a quienes se comportan injustamente con ellos, pero lo hacemos en dos condiciones. Uno es un caso estándar en el que alguien se comporta injustamente con otra persona y luego esa persona puede castigarlo. Todos tienen información completa y el tipo que es injusto sabe que está siendo castigado.

Luego agregamos otra condición, donde le damos a la gente la oportunidad de castigar en secreto: castigo oculto. Puedes castigar a alguien sin que sepa que ha sido castigado. Todavía sufren una pérdida financiera, pero debido a que ocultamos el tamaño de la apuesta, el tipo que está siendo castigado no sabe que está siendo castigado. El castigador obtiene la satisfacción de saber que el malo recibe menos dinero, pero no se hace cumplir ninguna norma social.

Lo que encontramos es que la gente todavía castiga mucho en la condición de castigo oculto. Aunque las personas castigarán un poco más cuando sepan que el tipo que está siendo castigado sabrá que está siendo castigado (a la gente sí le importa la aplicación de las normas) muchos comportamientos de castigo pueden explicarse por el deseo de que el infractor de normas tenga un menor recompensa al final. Esto sugiere que el castigo es potencialmente una mala manera de estudiar la moralidad porque las motivaciones detrás del castigo son, en gran parte, rencorosas.

Otro conjunto de métodos que hemos utilizado para analizar la moralidad en el laboratorio y cómo está moldeada por la neuroquímica son los problemas del carrito, el pan y la mantequilla de la investigación en psicología moral. Estos son escenarios hipotéticos en los que se les pregunta a las personas si es moralmente aceptable dañar a una persona para salvar a muchas otras.

Encontramos efectos de los neuromoduladores en estos escenarios y son muy interesantes por derecho propio. Pero encontré esta herramienta insatisfactoria para la pregunta que me interesa, que es: ¿Cómo la gente toma decisiones morales con consecuencias reales en tiempo real, en lugar de en alguna situación hipotética? Estoy igualmente insatisfecho con los juegos económicos como herramienta para estudiar la toma de decisiones morales porque no está claro que haya una norma moral sobresaliente en algo como la cooperación en un juego de bienes públicos o las donaciones caritativas en un juego de dictador. No está claro que las personas se sientan culpables si eligen la opción egoísta en estos casos.

Después de todo esto, volví a la mesa de dibujo y pensé ¿cuál es la esencia de la moralidad? Se ha trabajado en esto en los últimos años. Un artículo maravilloso de Kurt Gray, Liane Young y Adam Waytz sostiene que la esencia de la moralidad es el daño, específicamente el daño interpersonal intencional: un agente que daña a un paciente. Por supuesto, la moral es más que esto, absolutamente la moral es más que esto. Será difícil encontrar un código moral que no incluya alguna prohibición de dañar a otra persona a menos que tenga una buena razón.

Lo que quería hacer era crear una medida en el laboratorio que pudiera cuantificar con precisión cuánto le disgusta a la gente causar daños interpersonales. Lo que se nos ocurrió fue lograr que la gente hiciera concesiones entre las ganancias personales (dinero) y el dolor en forma de descargas eléctricas que se le dan a otra persona.

Lo que podemos hacer con este método es calcular, en términos monetarios, cuánto le disgusta a la gente hacer daño a los demás. Y podemos ajustar modelos computacionales a su proceso de decisión que nos brinden una imagen rica de cómo las personas toman estas decisiones, no solo cuánto daño están dispuestos a causar o no, sino cuál es el valor preciso que le dan al daño. de otros en relación con, por ejemplo, daño a sí mismos? ¿Cuál es la relativa certeza o incertidumbre con la que están tomando esas decisiones? ¿Qué tan ruidosas son sus elecciones? Si estamos tratando con ganancias o pérdidas monetarias, ¿cómo influye la aversión a las pérdidas en esto?

Podemos obtener una imagen más detallada de los datos y del proceso de decisión utilizando métodos como estos, que se inspiran en gran medida en el trabajo sobre la toma de decisiones no sociales y la neurociencia computacional, donde se ha avanzado mucho en los últimos años. Por ejemplo, en los entornos de búsqueda de alimento, ¿cómo decide la gente si ir hacia la izquierda o hacia la derecha cuando hay contingencias de recompensa fluctuantes en el entorno?

Lo que estamos haciendo es importar esos métodos al estudio de la toma de decisiones morales y de ello han surgido muchas cosas interesantes. Como era de esperar, existe una variación individual en la toma de decisiones en este entorno. Algunas personas se preocupan por evitar dañar a los demás y otras personas dicen: "Solo muéstrame el dinero, no me importa la otra persona". Incluso tuve un sujeto que casi con certeza estaba en la escala de psicopatía. Cuando le expliqué lo que tenía que hacer, dijo: "Espera, ¿me vas a pagar para sorprender a la gente? ¡Este es el mejor experimento de todos los tiempos!". Mientras que otras personas se sienten incómodas e incluso angustiadas por esto. Esto captura algo real sobre la toma de decisiones morales.

Una cosa que estamos viendo en los datos es que las personas que parecen ser más reacias a dañar a otros son más lentas cuando toman sus decisiones. Este es un contraste interesante con el trabajo de Dave, donde las personas más prosociales son más rápidas. Por supuesto, hay cuestiones que debemos resolver sobre la correlación versus la causalidad en los tiempos de respuesta y la toma de decisiones, pero hay algunas preguntas aquí al pensar en las diferencias entre un contexto de daño y un contexto de ayuda. Puede ser que las heurísticas que se desarrollan en un contexto de ayuda provengan de aprender sobre lo que es bueno y se aferran a los sistemas neurobiológicos que se acercan a las recompensas y se fortalecen cuando hay recompensas, en contraste con los sistemas neurobiológicos que evitan los castigos y ralentizan o congelan. cuando hay castigos alrededor.

En el contexto de las compensaciones entre la ganancia para mí y el dolor para otra persona, tiene sentido que las personas que están maximizando las ganancias para sí mismas sean más rápidas porque si está considerando el daño a otra persona, ese es un paso computacional adicional que tener que tomar. Si vas a tener en cuenta el sufrimiento de otra persona (la externalidad negativa de tus decisiones) tienes que hacer ese cálculo y eso llevará un poco de tiempo.

En esta pregunta más amplia del curso temporal de la toma de decisiones morales, puede haber un punto óptimo en el que, por un lado, tenga una heurística establecida de ayuda que lo hará más rápido, pero al mismo tiempo, considerar a los demás también es un paso que requiere un procesamiento adicional. Esto tiene sentido.

Cuando estaba desarrollando este trabajo en Londres, un día estaba caminando por la calle revisando mi teléfono, como todos hacemos, y un niño en una bicicleta con una sudadera con capucha vino y trató de robar mi teléfono. Afortunadamente no lo consiguió, simplemente se estrelló contra el suelo, era un ladrón incompetente. Al pensar en cuál fue su proceso de pensamiento durante ese tiempo, no estaba pensando en mí en absoluto. Tenía el ojo puesto en el premio. Tenía el ojo puesto en el teléfono, estaba pensando en su recompensa. No estaba pensando en el sufrimiento que sentiría si perdiera mi teléfono. Esa es una pregunta más amplia en la que pensar en términos de la entrada de la mentalización en la toma de decisiones morales.

Otra observación es que las personas que son más amables en este entorno parecen tener más incertidumbre en la toma de decisiones. Si observa los parámetros que describen la incertidumbre, puede ver que las personas que son más amables parecen ser más ruidosas en torno a su punto de indiferencia. Vacilan más en estas difíciles decisiones.

Así que he estado pensando en la incertidumbre y su relación con el altruismo y la toma de decisiones sociales, de manera más general. Una línea de pensamiento potencialmente fructífera es que las decisiones sociales (decisiones que afectan a otras personas) siempre tienen este elemento inherente de incertidumbre. Incluso si somos un buen mentalizador, incluso si somos el mejor mentalizador posible, nunca sabremos completamente lo que es ser otra persona y cómo otra persona va a experimentar los efectos de nuestras acciones en ellos. .

Una cosa que podría tener sentido hacer si queremos coexistir pacíficamente con los demás es simular cómo nuestro comportamiento afectará a los demás, pero pecamos de ser precavidos. No queremos imponer un costo insoportable a otra persona, por lo que pensamos: "Bueno, puede que no me guste este resultado en cierta medida, pero tal vez a mi compañero de interacción no le gustará un poco más, así que solo voy a agregar un un poco de seguridad adicional, un margen de error, que me llevará en la dirección prosocial ". Vemos esto en el contexto del dolor, pero esto podría aplicarse a cualquier costo: riesgo o costo de tiempo.

Imagínese que tiene un amigo que está tratando de decidir entre dos procedimientos médicos. Un procedimiento produce el resultado más deseable, pero también tiene una alta complicación o una alta tasa de mortalidad. Otro procedimiento no logra un resultado tan bueno, pero es mucho más seguro. Suponga que su amigo le dice: "Quiero que elija el procedimiento que me someteré. Quiero que usted elija por mí". En primer lugar, la mayoría de nosotros nos sentiríamos muy incómodos al tomar esa decisión por otra persona. En segundo lugar, mi intuición es que definitivamente optaría por la opción más segura porque si sucediera algo malo en la decisión arriesgada, me sentiría terrible.

Esta idea de que no podemos acceder directamente a la función de utilidad de otra persona es una idea bastante antigua y se remonta a la década de 1950 con el trabajo de John Harsanyi, quien hizo algunos trabajos en lo que llamó comparaciones de utilidad interpersonal. ¿Cómo se compara la utilidad de una persona con la utilidad de otra? Este problema es importante, particularmente en la ética utilitaria, porque si desea maximizar el mayor bien para el mayor número, debe tener alguna forma de medir el mayor bien para cada uno de esos números.

El desafío de hacer esto fue reconocido por el padre del utilitarismo, Jeremy Bentham, quien dijo: "Es en vano hablar de sumar cantidades que después de la adición seguirán siendo tan distintas como lo eran antes de que la felicidad de un hombre nunca sea la de otro. felicidad: una ganancia para un hombre no es ganancia para otro: también podría pretender agregar 20 manzanas a 20 peras ".

Este problema aún no se ha resuelto. Harsanyi ha hecho un gran trabajo en esto, pero con lo que terminó, su solución final, fue una aproximación que asume que las personas tienen una empatía perfecta, lo cual sabemos que no es el caso. Todavía hay espacio en esta área para la exploración.

La otra cosa acerca de la incertidumbre es que, por un lado, podría llevarnos hacia un comportamiento prosocial, pero por otro lado, hay evidencia de que la incertidumbre sobre los resultados y sobre cómo reaccionan otras personas a esos resultados puede autorizar el comportamiento egoísta. La incertidumbre también se puede explotar para beneficio personal en beneficio propio.

Imagina que eres el director ejecutivo de una empresa. Está tratando de decidir si despedir a algunos trabajadores para aumentar el valor para los accionistas. Si desea hacer el análisis de costo-beneficio, debe calcular cuál es la utilidad negativa para los trabajadores de perder sus trabajos y cómo se compara con la utilidad positiva de los accionistas para obtener estas ganancias. Debido a que no puede acceder directamente a cómo se sentirán los trabajadores y cómo se sentirán los accionistas, hay espacio para que el interés personal se filtre, especialmente si hay incentivos personales para empujarlo en una dirección u otra.

Roberto Weber y Jason Dana han realizado un buen trabajo al respecto, quienes han demostrado que si pones a las personas en situaciones en las que los resultados son ambiguos, la gente usará esto en su beneficio para tomar una decisión egoísta, pero aún así preservará su propia imagen. como una persona moral. Esta será una cuestión importante que abordar. ¿Cuándo la incertidumbre conduce a un comportamiento prosocial porque no queremos imponer un costo insoportable a otra persona? ¿Y cuándo conduce a un comportamiento egoísta porque podemos convencernos de que no va a ser tan malo?

Estas son cosas que queremos poder medir en el laboratorio y mapear diferentes procesos cerebrales (diferentes sistemas neuroquímicos) sobre estos diferentes parámetros que influyen en las decisiones. Veremos avances en los próximos años porque en esta neurociencia computacional no social hay personas inteligentes que están mapeando cómo funcionan las decisiones básicas. Todo lo que la gente como yo tiene que hacer es importar esos métodos para estudiar decisiones sociales más complejas. Habrá muchas frutas al alcance de la mano en esta área durante los próximos años.

Una vez que averigüemos cómo funciona todo esto, y creo que va a pasar un tiempo, a veces me han citado erróneamente al decir que las píldoras de moralidad están a la vuelta de la esquina, y les aseguro que no es así. Pasará mucho tiempo antes de que podamos intervenir en el comportamiento moral y es posible que ese día nunca llegue. La razón por la que este es un problema tan complicado es porque averiguar cómo lo hace el cerebro es la parte fácil. La parte difícil es qué hacer con eso. Ésta es una cuestión filosófica. Si averiguamos cómo funcionan todas las partes móviles, entonces la pregunta es ¿deberíamos intervenir y, de ser así, cómo deberíamos intervenir?

Imagínese que pudiéramos desarrollar una droga precisa que amplifique la aversión de las personas a dañar a otros con esta droga, no dañará a una mosca, todos los que la toman se vuelven como monjes budistas. ¿Quién debería tomar este medicamento? Sólo criminales convictos: ¿personas que han cometido delitos violentos? ¿Deberíamos ponerlo en el suministro de agua? Estas son preguntas normativas. Estas son preguntas sobre lo que se debe hacer. Me siento muy mal preparado para responder estas preguntas con la capacitación que tengo, pero estas son conversaciones importantes entre disciplinas. Los psicólogos y neurocientíficos deben hablar con los filósofos sobre esto. Estas son conversaciones que necesitamos tener porque no queremos llegar al punto en el que tenemos la tecnología pero no hemos tenido esta conversación, porque entonces podrían suceder cosas terribles.

Lo último que diré es que también es interesante pensar en las implicaciones de este trabajo, el hecho de que podemos cambiar la moral de las personas dándoles drogas. ¿Cuáles son las implicaciones de estos datos para nuestra comprensión de qué es la moralidad?

Ahora hay cada vez más evidencia de que si le da a las personas testosterona o influye en su serotonina u oxitocina, esto cambiará la forma en que toman decisiones morales. No de una manera dramática, sino de una manera sutil pero significativa. Y debido a que los niveles y la función de nuestros neuromoduladores cambian todo el tiempo en respuesta a eventos en nuestro entorno, eso significa que las circunstancias externas pueden jugar un papel en lo que usted cree que es correcto y lo que cree que está mal.

Muchas personas pueden encontrar esto profundamente incómodo porque nos gusta pensar que nuestra moral es fundamental para quienes somos y una de las cosas más estables de nosotros. Nos gusta pensar en ellos como escritos en piedra. Si este no es el caso, ¿cuáles son las implicaciones para nuestra comprensión de quiénes somos y en qué deberíamos pensar en términos de hacer cumplir las normas en la sociedad? Tal vez pueda pensar que la solución es que deberíamos tratar de hacer nuestros juicios morales desde una postura neutral, como la condición de placebo de la vida. Eso no existe. La química de nuestro cerebro está cambiando todo el tiempo, por lo que es este terreno muy inestable en el que no podemos encontrar un equilibrio.

Al final del día, así es como trato de evitar ser un científico arrogante que dice: "Puedo medir la moralidad en el laboratorio". Tengo un profundo respeto por la inestabilidad de estas cosas y estas son conversaciones que encuentro profundamente fascinantes.

EL REALITY CLUB

L.A. PAUL: Tenía una pregunta sobre cómo quieres pensar sobre estos temas filosóficos. A veces se las describe como autonomía. Dijiste que si podíamos descubrir algún químico que mejorara las capacidades morales de las personas, ¿lo poníamos en el agua? La pregunta que tengo está un poco relacionada con la imaginabilidad. En otras palabras, el tipo que intentó robar tu teléfono. El pensamiento era: si de alguna manera pudiera imaginar mejor cómo respondería, de alguna manera tal vez haría un mejor juicio moral. Hay una interesante pregunta normativa versus descriptiva porque, por un lado, podría ser más fácil justificar poner la droga en el agua si ayudara a las personas a comprender mejor los hechos morales verdaderos.

¿Qué pasaría si solo los hiciera mejores imaginando varios escenarios para que actuaran de una manera moralmente mejor, pero de hecho no tenía ninguna conexión con la realidad, solo mejoraba su comportamiento? Parece que es importante hacer esa distinción incluso con el trabajo que está haciendo. Es decir, ¿se está enfocando en cómo actúan realmente las personas o se está enfocando en los hechos psicológicos? ¿Cuál estamos priorizando y cuál usamos para justificar cualquier tipo de implicaciones políticas?

CROCKETT: Esto se remonta a la pregunta de si queremos ser psicólogos o economistas si nos enfrentamos a un ser mundano y todopoderoso. Estoy cayendo directamente en el campo de los psicólogos en el sentido de que es muy importante comprender las motivaciones detrás de por qué las personas hacen las cosas que hacen, porque si cambia el contexto, las personas podrían comportarse de manera diferente. Si solo está observando un comportamiento y no sabe por qué ocurre ese comportamiento, entonces podría hacer predicciones incorrectas.

Volviendo a su pregunta, un pensamiento que surge es que es potencialmente menos controvertido mejorar las capacidades que la gente considera que les da más competencia en el mundo.

PAUL: Hay un trabajo interesante sobre los donantes de órganos en particular. Cuando las personas están reclutando posibles donantes de órganos y están mirando a las familias que tienen que tomar la decisión, resulta que se obtienen mejores resultados al alentar a las familias de los posibles donantes a imaginar que la hija murió en un accidente automovilístico. el destinatario del órgano tendrá 17 años y también le encantan los caballos. Podría ser simplemente un tipo con un problema de drogas que se va a quedar con el órgano, pero los resultados medidos de la familia donante son mucho mejores si esa familia se involucra en esta imaginación ficticia aunque no tenga ninguna conexión con la verdad. No siempre es sencillo. En otras palabras, las cuestiones morales a veces se apartan del resultado empírico deseado.

CROCKETT: Una forma en que los psicólogos y neurocientíficos pueden contribuir a esta discusión es ser tan específicos y precisos como sea posible para comprender cómo moldear la motivación versus cómo moldear las elecciones. No tengo una buena respuesta sobre lo que se debe hacer en este caso, pero estoy de acuerdo en que es una pregunta importante.

DAVID PIZARRO: Tengo una buena respuesta. Este tema fue algo que surgió al final de la charla de Dave sobre la promoción del comportamiento versus la comprensión de los mecanismos. Existe, incluso si usted es psicólogo y tiene interés en esto, una forma en la que, en los mecanismos, podría decir: "Voy a tomar el enfoque de aprendizaje de BF Skinner y diré que lo que me importa es esencialmente el frecuencia del comportamiento. ¿Cuáles son las cosas que tengo que hacer para promover el comportamiento que quiero promover? "

Puede obtener estas contingencias agradables y manipuladas en el entorno entre la recompensa y el castigo. ¿La recompensa funciona mejor que el castigo?

Quiero proponer que tenemos dos muy buenas intuiciones, una, que hay que descartar cuando somos científicos sociales, ¿cómo queremos que sean nuestros hijos? Quiero que mi hijo sea bueno por las razones correctas. En otras palabras, quiero que ella desarrolle un personaje del que pueda estar orgulloso y del que ella pueda estar orgullosa. Quiero que haga una donación a organizaciones benéficas no porque tenga miedo de que, si no lo hace, la gente la juzgue mal, sino porque realmente se preocupa por los demás.

Cuando miro a la sociedad, y cuanto más trabajo hacemos que pueda tener implicaciones para la sociedad, debemos dejar de lado esas preocupaciones. Es decir, deberíamos sentirnos cómodos diciendo que hay una pregunta sobre cuáles son las razones correctas y cuáles son las motivaciones correctas en un sentido moral. Hay otra pregunta que debería hacerse desde una perspectiva de política pública: ¿qué maximizará el bienestar de mi sociedad? ¡Me importa una mierda por qué la gente lo hace!

No debería haber ninguna diferencia si lo estás haciendo porque estás avergonzado (como Jennifer podría estar hablando más tarde): "Quiero inscribirme en el programa de energía porque mis compañeros se burlarán de mí", o si lo está haciendo porque se da cuenta de que este es un llamado que Dios le dio: insertar este pequeño reductor de temperatura durante los veranos de California. Ese enfoque "por cualquier medio necesario" que nos parece tan inhumano como individuos es una estrategia perfectamente apropiada para usar cuando tomamos decisiones para el público.

CROCKETT: Sí, eso tiene sentido y es un enfoque satisfactorio en lugar de un enfoque maximizador. Una razón por la que nos preocupamos tanto por la primera intuición es porque en el contexto en el que evolucionamos, que fueron las interacciones de grupos pequeños, alguien que hace algo bueno por las razones correctas va a ser más confiable y más digno de confianza con el tiempo que alguien. quién lo hace por una razón incentivada externamente.

PIZARRO: Y puede que no sea cierto. ¿Derecha? Puede resultar incorrecto.

DAVID RAND: Eso es correcto, pero creo que sigue siendo cierto que no se trata solo de cuando estabas en un grupo pequeño, cazador-recolector, sino en general: si crees en algo por la razón correcta, lo harás incluso si nadie está mirando. Eso crea un resultado socialmente más óptimo que si solo lo hicieras cuando alguien está mirando.

PIZARRO: Sin embargo, es una pregunta empírica. No sé si ha sido respondida. Por ejemplo, el miedo al castigo.

RAND: Tenemos datos, de un sabor. Si miras a las personas que cooperan en los repetidos dilemas de los prisioneros, no es más o menos probable que cooperen de una vez, o no es más probable que cedan en un juego de dictador. Cuando la regla está en vigor, todos cooperan sin importar si son egoístas o no. Cuando no hay ningún incentivo, las personas egoístas vuelven a ser egoístas.

SARAH-JAYNE BLAKEMORE: También hay datos de que en los quioscos de prensa en el Reino Unido, donde a veces puedes tomar un periódico y poner dinero en la ranura, y si pones un par de ojos por encima de la ranura del dinero, es más probable que la gente pague sus cuotas. que si no pones ningún ojo ahí.

PIZARRO: Eso ciertamente no es actuar por la razón correcta. Esa no puede ser la razón correcta.

RAND: Mencionaste la cuestión de pensar en las consecuencias para ti mismo frente a la otra persona. Cuando pensamos en cómo se toman estas decisiones, hay dos etapas que son distintas pero que se agrupan mucho en términos conceptuales y de medición. Tienes que entender cuáles son las opciones, y luego, una vez que sepas cuáles son, tienes que elegir cuál prefieres. Me parece que el procesamiento automático versus el deliberativo tiene roles opuestos en esos dos dominios. Evidentemente, para comprender el problema hay que pensarlo. Si eres egoísta, no necesitas perder tiempo para pensar en la decisión porque obviamente es lo que debes hacer. Tratamos de separar esas cosas explicando la decisión de antemano cuando no está limitado. Luego, cuando llega el momento de tomar la decisión, pones a las personas bajo presión de tiempo.

CROCKETT: Eso puede explicar lo que está pasando y ese es un buen punto porque estas ideas sobre la incertidumbre y el margen de maniobra moral, van a jugar el papel más importante en la primera parte: en la construcción del problema. ¿Es esta una decisión moral o no es una decisión moral? Potencialmente, también juega el papel más importante esta idea de la que hablabas antes acerca de cómo interiorizan las personas lo que es lo correcto. ¿Cómo establece que esto es lo correcto?

Deberíamos hablar más sobre esto porque, metodológicamente, es importante separarlo.

HUGO MERCIER: ¿Puedo decir algo sobre este tema de la mentalización? Tiene razón al llamar la atención sobre la importancia de mentalizar al tomar decisiones o juicios morales. Parece que los datos indican que no somos muy buenos en eso, que tenemos sesgos y tendemos a no ser muy buenos cuando pensamos en lo que podría haber causado el comportamiento de otras personas.

La razón es que en la vida cotidiana, a diferencia de muchos entornos experimentales, podemos hablar con la gente. Si haces algo que creo que es malo, y sabemos por los datos sobre cómo se explica la gente, eso de forma espontánea me dirás por qué hiciste esto y tratarás de justificarte. No tengo que hacer el trabajo de tratar de averiguar por qué hiciste esto, qué tipo de excusa podrías haber tenido porque lo vas a hacer por mí. Luego, configuramos estos experimentos en los que no tienes estos comentarios y es simplemente extraño. No es irrelevante porque hay muchas situaciones en las que eso también sucede, pero aún debemos tener en cuenta que no es natural. En la mayoría de estos juegos y en la mayoría de estos experimentos, si pudieras dejar que la gente hable, encontrarán una buena solución. Lo que pasa con los choques, si la gente pudiera hablar entre ellos, podría decir "Bueno, estoy feliz de aceptar el choque si quieres compartir el dinero". Por otra parte, no estoy diciendo que no sea interesante hacer los experimentos en absoluto, pero debemos tener en cuenta que es un poco extraño.

CROCKETT: Eso es cierto hasta cierto punto. Muchas decisiones morales, particularmente en el ámbito de la cooperación en el mundo real, suelen implicar algún tipo de comunicación. Sin embargo, cada vez más, muchas decisiones morales son individuales en el sentido de que involucran a alguien que no está allí. Si está decidiendo si comprar un producto de comercio justo o no, o si es un político que toma una decisión sobre una política de salud que afectará a cientos, miles de personas, millones de personas que no están allí. Algunas de las decisiones morales de mayor alcance las toma un individuo que no ve a quienes van a soportar las consecuencias de esa decisión. Es importante estudiar ambos.

MERCIER: Quizás al darse cuenta de que el contexto en el que evolucionaron estos mecanismos de mentalización fue uno en el que tuvo una gran cantidad de retroalimentación, puede ayudarnos a comprender mejor lo que sucede cuando no tenemos esta retroalimentación.

CROCKETT: Quizás por eso vemos un comportamiento egoísta es que estamos acostumbrados a tener la oportunidad de justificarlo cuando ahora hay muchos casos en los que no tienes que justificarlo.

FIERY CUSHMAN: Una de las cosas únicas y geniales de su investigación es el enfoque en los neuromoduladores, mientras que la mayoría de las investigaciones sobre cómo el cerebro procesa la moralidad se ha centrado en la computación neuronal. Obviamente, esas cosas están interrelacionadas. Supongo que siempre lo he estado, no sé si confundido es la palabra correcta, sobre para qué sirven los neuromoduladores. Parece que la computación neuronal puede ser increíblemente precisa. Puede obtener un Seurat o un Vermeer a partir de la computación neuronal, mientras que los neuromoduladores le brindan Rothkos y Pollocks.

¿Por qué el cerebro tiene herramientas tan contundentes? ¿De qué manera pensar en los neuromoduladores, en particular como una herramienta muy contundente pero también de amplio alcance, informa su pensamiento sobre su papel en el juicio moral en contraposición a la computación neuronal?

CROCKETT: Es importante distinguir entre las herramientas que tenemos como investigadores para manipular neuromoduladores, que son increíblemente contundentes, frente a la forma en que funcionan estos sistemas en el cerebro, que son extremadamente precisos. El sistema de la serotonina, por ejemplo, tiene al menos 17 tipos diferentes de receptores. Esos receptores hacen cosas diferentes y se distribuyen de manera diferente en el cerebro. Algunos tipos de receptores solo se encuentran subcorticalmente y otros receptores tienen su concentración más alta en la corteza prefrontal medial. Existe un alto grado de precisión en la forma en que estas sustancias químicas pueden influir en el procesamiento del cerebro en circuitos más locales.

Para responder a la primera parte de su pregunta, la función de estos sistemas es que la cognición no es un programa único para todos. A veces, desea centrarse más en los detalles locales excluyendo el panorama general. Otras veces, desea poder ver el panorama más amplio excluyendo los pequeños detalles. Si desea procesar de una manera u otra, dependerá profundamente del contexto ambiental.

Si se encuentra en una situación muy estresante, debe centrar su atención en cómo salir de esa situación. No querrás pensar en lo que desayunarás mañana. Por el contrario, si las cosas se relajan, ese es el momento en el que puede participar en la planificación a largo plazo. Hay evidencia de que cosas como el estrés, los eventos ambientales, los eventos que tienen alguna consecuencia importante para la supervivencia del organismo van a activar estos sistemas que luego moldean la cognición de tal manera que es adaptativa. Esa es la forma en que pienso sobre los neuromoduladores.

La serotonina es interesante en este contexto porque es uno de los menos comprendidos en términos de cómo funciona. El ejemplo del estrés del que estaba hablando, la noradrenalina y el cortisol y esos neuromoduladores se entienden bastante bien. La noradrenalina es estimulada por el estrés y aumenta la relación señal / ruido en la corteza prefrontal y centra su atención.

La serotonina hace toneladas de cosas diferentes, pero es uno de los pocos, si no el único neuromodulador importante que solo se puede sintetizar si se cuenta continuamente con aportes nutricionales. La serotonina se produce a partir del triptófano, que es un aminoácido que solo se puede obtener de la dieta. Solo puede contraerlo al comer alimentos que contienen triptófano, que es la mayoría de los alimentos, pero especialmente los alimentos ricos en proteínas. Si está en una hambruna, no producirá tanta serotonina.

Esto es interesante en un contexto evolutivo porque ¿cuándo tiene sentido cooperar y preocuparse por el bienestar de sus semejantes? Cuando los recursos son abundantes, entonces es cuando debes construir relaciones. Cuando los recursos son escasos, tal vez quieras cuidarte a ti mismo, aunque hay algunas arrugas interesantes allí de las que Dave y yo hemos hablado antes donde podría haber una función en forma de U invertida donde la cooperación es fundamental en momentos de estrés.

Quizás una función de la serotonina es dar forma a nuestras preferencias sociales de tal manera que se adapte al contexto ambiental actual.


Ver el vídeo: Optimización Multivariable: Método de Gradiente, Newton Multidimensional (Junio 2022).