Trisomie 21 – la fête triste, El estrés patológico

Trisomie 21,  Fête Triste
  ¿Estamos seguros de lo qué es el estrés?



   

Trisomie 21  fué creado por Hervé y Phillipe Lomprez en 1980. Su primer album Le repos des enfants heureux fué editado en 1983 y alcanzó los elogios de la crítica en Bélgica y Paises Bajos donde fueron comparados con Joy Division, The Cure y Duriti Column. Muchos álbumes siguieron con gran éxito a éste, como Passion DiviséeChapter IV (del cual los singlesla Fête Triste y The Last Song llegaron a alcanzar primeros puestos en las listas de ventas) y Million Light por nombrar algunos.

Trisomie 21 no sólo han sido activos en sus producciones de estudio sino también en los escenarios. T21 protagonizaron exitosos conciertos en Bélgica (Plan K/ Halle de Sharbeeck), Holanda (Wilky-Way), Suiza y Canadá. En sus conciertos en París (Rex Club/ Bataclan), Reims, Lyon, Strasbourg, Bordeaux, Saint Malo agotaron todas las entradas. Sus canciones pueden ser oídas ensamplers del diseñador Kenzo como Musique de NuitPlanete BleueBallade Nocturne o Sensation Poupres.
http://www.clubbingspain.com/artistas/belgica/trisomie-21.html
http://www.trisomie21.tv/

¿QUÉ ES EL ESTRÉS?
Tal vez por el conocimiento que tenemos actualmente sobre el estrés resulta bastante difuso y heterogéneo. El abuso del término ha contribuido a crear notable confusión que ha llegado a notarse en los círculos científicos.
s. XVII, R. Hooke, el concepto de estrés se asocia a fenómenos físicos como presión, fuerza, distorsión, etc. Lo aplicó a estructuras fabricadas que tienen que aguantar el efecto de fuerzas diversas. Los físicos e ingenieros empezaron a emplear tres conceptos relacionados basados en las características físicas de los cuerpos sólidos:

1.     Carga: peso ejercido sobre una estructura mediante un fuerza externa
2.     Estrés:fuerza interna presente en un área sobre la que actúa una fuerza externa, cuando una estructura sólida es distorsionada, podría cuantificarse en dinas por centímetro cuadrado
3.     Distorsión: es la deformación en tamaño o forma de la estructura respecto a su estado original, debido a la acción conjunta de la carga y el estrés.
el término carga derivó a estresor, para hacer alusión al estímulo inductor de estrés. Los términos de estrés y strain, se han confundido subsumiéndose ambos en el primero para denotar un estado del organismo (estado de estrés); pueden encontrarse diferencias:

1.     Estrés: para referirse al estímulo , objetivamente mensurable
2.     Strain: respuesta individual (diferente en cada persona) al estresor
Los enfoques fisiológicos y biológicos consideran el estrés en términos de respuestas.
Los enfoques psicológicos y psicosociales ponen más énfasis en la situación estimular, han tendido a asumir el estrés como un fenómeno externo, focalizado en el  estímulo.
Perspectivas:
1.     Enfatizan el componente externo (Estresor)
2.     Enfatizan el componente de respuesta fisiológica
3.     Factores psicológicos o subjetivos (cognitivos) que median entre los agentes estresantes y las respuestas fisiológicas de estrés.
·        Seyle, 1956: estrés focalizado en la respuesta
·        Holmes y Rahe, 1967: estrés focalizado en el estímulo
·        Lazaruz, 1966: estrés focalizado en la interacción
Esto marcará el desarrollo de la teoría general del estrés y de su aplicación al campo psicopatológico, y así mismo clarificarán, lo que debe entenderse bajo el concepto del estrés. Básicamente, se deduce que le estrés es un fenómeno complejo que implica al menos a estímulos y respuestas, y a procesos psicológicos diversos que median entre ambos.
Pablo Ruiz Picasso 
 (1881 – 1973)

1937
Museo Reina Sofía – Madrid
 ORIENTACIONES TEÓRICAS SOBRE EL ESTRÉS
A.    TEORÍAS BASADAS EN LA RESPUESTA
1.      Teoría del estrés de Seyle
Hans Selye (1907-1982)Selye denominó “reacción general de alarma” a esta respuesta con la que el organismo enfrenta diferentes tipos de agresiones, y mas tarde utilizaría el término “stress” (estrés en Español), que en cierta medida podríamos definir como sinónimo de “tensión”.

Es la persona que ha popularizado el término estrés, y es también quien puede considerarse como fundador de esta área de investigación aplicado a las ciencias de la salud. La teoría del estrés es entendida por Seyle como una respuesta no específica del organismo, Ha definido el estrés:
·       “el estado que se manifiesta por un síndrome específico, consistente en todos los cambios inespecíficos inducidos dentro de un sistema biológico. Así, el estrés tiene su forma y composición característica, paro ninguna causa particular” (1960).
El agente desencadenante del estrés (estresor o alarmígeno) es un elemento que atenta contra la homeostasis del organismo. Es estresor todo agente nocivo para el equilibrio del sistema homeostático del organismo.
Más recientemente redefine el estrés enfatizando que se trata de respuestas inespecíficas del organismo a las demandas hechas sobre él. Cada demanda hecha sobre el organismo es única, elicitan ciertas respuestas altamente específicas. Sin embargo poseen algo en común: incrementan la demanda de ajuste del organismo (necesidad de reequilibrarse). Según esta teoría, cualquier estímulo puede ser estresor siempre que provoque en los organismos la respuesta inespecífica de necesidad de reajuste o estrés.
La respuesta es una respuesta estereotipada que implica una activación del eje hipotálamo-hipofísico-suprarrenal (con activación de corticoides) y del Sistema Nervioso Autónomo (SNA).
Si tal activación persiste produce un síndrome de estrés:
1.      Hiperdesarrolo de la corteza suprarrenal (hiperplasia suprarrenal)
2.      Involución de la glándula timo
3.      Desarrollo de úlcera péptica.
Seyle (1975) indica que el estrés no es algo que por sí mismo deba ser evitado; puede estar asociado tanto a experiencias o estímulos desagradables como agradables (la carencia total de estrés significa la muerte). Cuando se afirma que un individuo sufre de estrés significa que éste es excesivo, implica un sobreesfuerzo del organismo al sobreponerse al nivel de resistencia de éste.
Cannon (1932) influyó en Seyle a partir de su hipótesis sobre la homeóstasis, la capacidad que tiene todo organismo para mantener constante un equilibrio interno. Cannon empleó el término de estrés para referirse a las reacciones de lucha-huida, respuestas automáticas que emiten los organismos en defensa de estímulos amenazantes externos o internos. En esta respuesta interviene básicamente la activación del SNS (sistema nervioso simpático) con la consecuente liberación de catecolaminas por la médula suprarrenal (adrenalina y noradrenalina), liberación de glucosa a los músculos Seyle elaboró un modelo de estrés con relevancia del SNA, destacando la activación del sistema hormonal hipofiso-corticosuprarrenal (enfatizó más la implicación de las hormonas de la corteza que de la médula suprarrenal).
La teoría de Seyle tiene la ventaja de ofrecer una definición operativa basada en la acción de dos tipos de fenómenos objetivables:
1.      El estresor: cualquier demanda que evoca el patrón de respuesta de estrés referido, puede ser un estímulo físico, psicológico, cognitivo o emocional.
2.      Respuesta del estrés: lo considera un mecanismo tripartito que denomina síndrome general de adaptación (SGA). El SGA es la consideración de la respuesta de estrés mantenido en el tiempo. Cuando ésta persiste se produce el síndrome estereotipado, caracterizado por:
a)     hiperplasia suprarrenal
b)     atrofia en el timo y ganglios linfáticos
c)      signos de úlcera de estómago
Las tres etapas del síndrome son:
1.   Reacción de alarma: Reacción del organismo cuando es expuesto repentinamente a diversos estímulos a los que no está adaptado. Este término se sugiere para la respuesta inicial del organismo porque el síndrome probablemente representa una llamada general a las fuerzas defensivas del organismo. Tiene dos fases:
a)     La fase de choque constituye la reacción inicial e inmediata al agente nocivo. Son síntomas típicos de esta fase:
a)     La taquicardia
b)     La pérdida del tono muscular
c)     La disminución de la temperatura
d)     La disminución de la presión sanguínea.
La descarga de adrenalina, corticotrofina (ACTH) y corticoides son reacciones primarias de defensa que empiezan durante esta fase, pero que se hacen más evidentes en la siguiente fase.


b)     La fase de contrachoque: Es una reacción de rebote (defensa contra el choque) caracterizada por la movilización de una fase defensiva, durante la cual se produce:
a)     Agrandamiento de la corteza suprarrenal con signos de hiperactividad (incrementos de corticoides)
b)     Involución rápida del sistema timo-linfático
c)      Signos opuestos a los de la fase de choque.
a.      hipertensión
b.      hiperglucemia
c.      diuresis
d.      hipertermia, etc.
Muchas enfermedades asociadas a estrés agudo corresponden a estas dos fases de la reacción de alarma. Presentan signos catalizadores.
1.   Etapa de resistencia: Ningún organismo puede mantenerse constantemente en un estado de alarma. Si el agente es incompatible con la vida y se mantiene, el animal muere durante la reacción de alarma en pocas horas o días. Si el animal puede sobrevivir, la fase inicial de alarma es necesariamente seguida por la fase de resistencia. En esta etapa se produce adaptación del organismo al estresor junto con la consecuente mejora y desaparición de los síntomas. Se caracteriza por una resistencia aumentada al agente nocivo en particular y por una menor resistencia a otros estímulos. Así pues, se obtiene la impresión de que se adquiere la adaptación a un agente a costa de la menor resistencia a otros agentes. La mayoría de los cambios morfológicos y bioquímicos presentes durante la reacción de alarma desaparecen durante este período y en algunos casos se invierten. Signos de anabolismo
2.  Etapa de agotamiento: Si el organismo continúa expuesto al estresor prolongadamente pierde la adaptación adquirida en la fase anterior entrando en la tercera fase o de agotamiento. El agotamiento llega si el estresor es suficientemente severo y prolongado. Reaparecen los síntomas característicos de la reacción de alarma y puede significar la muerte del organismo.


Críticas a la teoría de Seyle:
a)  Presenta el inconveniente de que la teoría no está formulada de manera científica, ya que no establece las condiciones para que un estímulo pueda se considerado estresor independientemente de sus efectos-
b)     Define el estresor de forma redundante, es un estímulo que produce estrés.
c)     Componente emocional del estresor y el concepto de inespecificidad (planteado a raíz de los experimentos de J. W. Mason).
Crítica al concepto de inespecificidad
La respuesta de estrés es inespecífica, puede observarse ante diversos estresores, pero tienen en común que inducen una activación. Mason piensa que las respuestas inespecíficas están producidas por estímulos emocionales, por lo que más apropiado del concepto de inespecificidad sería el de activación emocional.
Mason (1968) demostró que la gran sensibilidad que posee el sistema neuroendocrino para responder a los estímulos emocionales permite sugerir que, en lugar de una respuesta inespecífica a las distintas amenazas, lo que existe es una respuesta inespecífica para todos los estímulos emocionales.
Sus estudios sobre respuestas de estrés en primates, la respuesta de estrés podría interpretarse más bien como una respuesta provocada por el factor psicológico que acompaña a todos los agentes que amenazan la homeóstasis del individuo. Para poder hipotetizar que el estrés es una respuesta a factores psicológicos de los físicos, Mason realizó el siguiente trabajo:
1.      -Había observado que empleando agentes estresores de laboratorio típicos resultaba difícil aislar el componente psicológico:
a)     Ayuno
b)     Fatiga
c)     Frío
d)     Hemorragias, etc.
Trató de llevarlo a cabo utilizando el ayuno como estresor
Si en un grupo de animales privamos a algunos de ellos durante varios días de sus respectivas raciones de comida y esto lo hacemos en presencia de los otros, es seguro que los animales sometidos al ayuno presentarán hiperactividad en la corteza suprarrenal (niveles elevados de 17-hidroxicorticosteroides, 17-OHCS). No nos permite saber si este cambio se debe al ayuno, ya que los animales normalmente se muestran disconformes ante el hecho de que sus compañeros coman y ellos no.
Para aislar este u otros efectos psicológicos, diseñó un doble proceso experimental:

  1. 1.      Colocó un grupo de monos en ayunas en un pequeño cubículo, privado, protegidos de la presencia de otros monos o de posibles factores extraños.
  2. 2.      Les dio productos sabrosos, aunque no nutritivos, los cuales eran similares en apariencia y sabor a los de la dieta normal
  3. 1.      Aunque no comieron mucho de este producto, si comieron lo suficiente para que penetrase en su tracto gastrointestinal.
Ø      Mason concluye que la respuesta de los 17-OHCS al ayuno no es significativa.
Ø      Se sugiere que el ayuno es ineficaz para inducir activación del eje hipotalámo-hipofiso-suprarrenal, siendo más bien la condición psicológica que acompaña al ayuno lo que provoca la estimulación de la respuesta de estrés.
Estudió otros estresores como el ejercicio y el calor concluyendo que estos agentes no alteran la actividad de la corteza suprarrenal, a no ser que impliquen algún componente de naturaleza psíquica (particularmente emocional).
En humanos es conocido que el ejercicio físico no modifica significativamente los niveles habituales de 17-OHCS plasmáticos o en orina, salvo cuando el ejercicio se desarrolla en situaciones competitivas.
Weiss (1971)utilizó con ratas el paradigma “control incido” (yoked control) según el cual dos animales (“uncidos”) reciben:
1.      En un procedimiento de evitación activa, los mismos estímulos aversivos (descarga eléctrica)
2.      Pero sólo uno de ellos tiene la posibilidad de controlar la emisión de tales estímulos.
·        De este modo, pueden disociarse las características físicas del estresor:
a)     la frecuencia
b)     intensidad de la descarga
c)      las características psíquicas, el control sobre los estímulos.
Cualquier diferencia entre ambas condiciones experimentales (pasivo vs activo) se deberá a la percepción de control de los sujetos
Los animales sin control (pasivos):
1.     Presentaron mayor grado de patología (niveles elevados de corticosterona, lesiones gástricas)
2.     A pesar de haber recibido idéntico número (e intensidad) de estresores físicos.
El trabajo de Weiss indica que la respuesta de estrés depende del control (o percepción de control) que el sujeto tiene sobre el estresor, más que de las características físicas del estresor.
Definición de estrés
Se ha asumido que el estrés implica dos conceptos:
1.     El de estresor
2.     El de respuesta al estrés
El estrés se entiende primariamente:
Como una respuesta y subyace la idea de que el estrés supone un estado especial del organismo caracterizado por el sobreesfuerzo 
·        “En condiciones de equilibrio el organismo vive bajo la actividad normal de sus funciones biopsicosociales moduladas por los ritmos de sueño y vigilia. Bajo estas condiciones, el funcionamiento fisiológico y psicológico está sometido a niveles de activación que se consideran normales. Esta activación fluctúa según las vivencias diarias y ordinariamente está asociada a emociones (ira, tristeza, alegría, etc.). El estrés se produce cuando ocurre una alteración en este funcionamiento normal por la acción de algún agente externo o interno. El organismo, en estas circunstancias, reacciona de forma extraordinaria realizando un esfuerzo para contrarrestar el desequilibrio realizando un esfuerzo para contrarrestar el desequilibrio. La respuesta de estrés es extraordinaria, implica esfuerzo y produce una sensación subjetiva de tensión (presión). Esto suele suponer, además, un incremento de la activación o inhibición y, por tanto, un cambio en los estados emocionales.” (Sandín, 1989).
Algunos enfoques del estrés centrado en la respuesta ha consistido en entender que ésta es únicamente orgánica (las respuestas de estrés implican tanto a los factores fisiológicos y conductuales como a los cognitivos). Lo que sí parece claro es que el estrés implica un proceso de reacción especial (sobreesfuerzo) ante demandas fundamentalmente de naturaleza psicológica


TEORÍAS BASADAS EN EL ESTÍMULO
Interpretan y entienden el estrés en términos de características asociadas a los estímulos del ambiente, interpretando que éstos pueden perturbar o alterar el funcionamiento del organismo. El estrés se localiza en el individuo, siendo el strain (efecto producido por el estrés), el aspecto correspondiente a la persona.
Este modelo trata el estrés como una variable independiente. Cox (1978) piensa que los modelos focalizados en el estímulo son esencialmente una analogía del modelo de la ingeniería basado en la ley de la elasticidad de Hooke:
Describe como las fuerzas (carga) producen deformación en los metales. El estrés (la carga o la demanda que ejercen sobre el metal) produce deformación (distorsión) del metal (strain).
La ley establece que si el  strain producido por un determinado estrés cae dentro de los límites de elasticidad del metal, cuando el estrés desaparece el material retorna a su estado original. Si el strain sobrepasa dichos límites, entonces aparecen problemas permanentes.
Por analogía con los sistemas físicos, se entiende que la gente posee también unos ciertos límites de tolerancia al estrés (como fuerza externa), pudiendo variar de unos individuos a otros. Por encima de tales límites el estrés empieza a hacerse intolerable y aparecen los daños fisiológicos y/o psicológicos. La orientación basada en el estímulo es la que más se acerca a la idea popular del estrés.

Cox (1978) piensa que los modelos focalizados en el estímulo son esencialmente una analogía del modelo de la ingeniería basado en la ley de la elasticidad de Hooke:

Describe:1.     Como las fuerzas (carga)
2.     Producen deformación en los metales.
3.     El estrés (la carga o la demanda que ejercen sobre el metal)
4.     Produce deformación (distorsión) del metal (strain).
La ley establece:Que si el  strain producido por un determinado estrés cae dentro de los límites de elasticidad del metal, cuando el estrés desaparece el material retorna a su estado original. Si el strain sobrepasa dichos límites, entonces aparecen problemas permanentes

Por analogía con los sistemas físicos, se entiende:1.     Que la gente posee también unos ciertos límites de tolerancia al estrés (como fuerza externa)
2.     Pudiendo variar de unos individuos a otros
3.     Por encima de tales límites el estrés empieza a hacerse intolerable y aparecen los daños fisiológicos y/o psicológicos
Ø     La orientación basada en el estímulo es la que más se acerca a la idea popular del estrés.

 Un importante problema que se plantea al subsumir esta perspectiva teórica es la delimitación de las situaciones que puedan ser consideradas de estrés o estresantes. Lógicamente, un inconveniente es que una situación puede ser muy estresante par una persona, pero muy poco a nada para otra. Weitz revisó esta cuestión y trató de clasificar los diferentes tipos de situaciones que han sido considerados como estresantes en la investigación; señaló 8 categorías:
1.      Procesar información velozmente
2.      Estímulos ambientales dañinos
3.      Percepción de amenaza
4.      Función fisiológica alterada
5.      Aislamiento y confinamiento
6.      Bloquear, obstaculizar
7.      Presión grupal
8.      Frustración
Ø      Los modelos del estrés basados en el estímulo han tenido gran influencia en psicopatología durante las dos últimas décadas. En términos generales, pueden circunscribirse en la perspectiva conocida como enfoque psicosocial del estrés o enfoque de los sucesos vitales (Sandín, 2008). El grupo de Holmes es uno de los principales responsables del desarrollo, al menos en su fase inicial, de esta orientación del estrés.
TEORÍAS BASADAS EN LA INTERACCIÓN
Lazarus (1966, 1993, 1984), las teorías interactivas o transaccionales tienden a maximizar la relevancia de los factores psicológicos (básicamente cognitivos) que median entre los estímulos (estresores o estresantes) y las respuestas de estrés. Los enfoques analizados atrás atienden y entienden la relevancia de los factores psicológicos como elementos determinantes en gran medida de las respuestas de estrés, también es cierto que en general tienden a ver a la persona como algo pasivo en el proceso del estrés (suelen ignorar el rol activo de la persona en la ocurrencia del estrés). En la perspectiva interaccional se especifica que el estrés se origina a través de las relaciones particulares entre la persona y su entorno. Basándose en esta idea de interacción definen el estrés como:
Ø      “un conjunto de relaciones particulares entre la persona y la situación, siendo esta valorada por la persona como algo que grava o excede sus propios recursos y que pone en peligro su bienestar personal.”.
La idea central de la perspectiva interaccional o mejor, aproximación mediacional cognitiva, se focaliza en el concepto cognitivo de evaluación (appraisal). La evaluación es definida por este autor como el mediador cognitivo de las reacciones de estrés (elemento mediador de las respuestas personales de estrés a los estímulos relevantes). la evaluación cognitiva es un proceso universal, mediante el cual las personas valoran constantemente la significación de lo que está ocurriendo, relacionado con su bienestar personal. La teoría de Lazarus distingue tres tipos de evaluación:
1.      Primaria: se produce en cada encuentro o transacción con algún tipo de demanda externa o interna. Es el primer mediador psicológico del estrés y puede dar lugar a cuatro modalidades de evaluación:
1)     Amenaza. Anticipación de un daño, que aunque aún no se ha producido, su ocurrencia parece inminente.
2)     Daño-pérdida. Se refiere a un daño psicológico que ya se ha producido
3)     Desafío. Hace referencia a la valoración de una situación que implica a la vez una posible ganancia positiva y una amenaza. Resulta de demandas difíciles, ente las que el sujeto se siente seguro de superarlas siempre que movilice y emplee adecuadamente sus recursos de afrontamiento
4)     Beneficio. Este tipo de valoración no induciría reacciones de estrés.
A partir de las tres primeras formas de evaluación, se pueden deducir tres tipos de estrés:
1)     de amenaza
2)     de pérdida
3)     de desafío
Otras consecuencias deriva de la plurifactorialidad de la valoración primaria es que el estrés no es un fenómeno unitario, Lazarus piensa que el estrés no es una forma de activación.
1.      Secundaria:valoración de los propios recursos para afrontar la situación. Se sugiere que la reacción de estrés depende sustancialmente de la forma en que el sujeto valora sus propios recursos de  afrontamiento. La valoración de los recursos personales determina en gran proporción que el individuo se sienta asustado, desafiado u optimista. Los recursos de afrontamiento. La valoración de los recursos de afrontamiento determina en gran proporción que el individuo se sienta asustado, desafiado u optimista. Los recursos de afrontamiento incluyen habilidades de coping (habilidades de solución de problemas), el apoyo social y los recursos materiales.
2.      Reevaluación:Implica los procesos de feedback que acontecen a medida que se desarrollo la interacción entre el individuo y las demandas externas o internas. La reevaluación permite que se produzcan correcciones sobre valoraciones previas; tras ser valorados los recursos de afrontamiento, una demanda puede reevaluarse con mucho menor grado de amenaza.
Lo que diferencia al modelo mediacional cognitivo de Lazaruz de otras aproximaciones es la relevancia que asigna a la evaluación cognitiva. Es el factor determinante de que una situación potencialmente estresantellegue o no a producir estrés en el sujeto. Enfatiza la importancia de la persona como algo activo, interactuando con el modelo ecológico. Se trata de un modelo relacional, procesual. El estrés es un proceso interaccional, es una relación particular entre la persona y la situación que se produce cuando la persona valora que las demandas gravan o exceden sus recursos de ajuste y hace que peligre su bienestar. Una definición equivalente es cuando dicen que el estrés en sí mismo nones una variable simple, sino un sistema de procesos interdependientes, incluidos la evaluación y el afrontamiento, que median en la frecuencia, intensidad, duración y tipo de respuestas psicológicas y somáticas.
Algunos autores han venido proponiendo otros modelos de índole interaccional más o menos alternativos al de Lazarus pero no muy diferentes.
El modelo transaccional de Cox y Mackay, modelo organizado en varias etapas constitutivas de un sistema general que describe la forma en que actúa el estrés. Los autores entienden el estrés como parte de un sistema cibernético dinámico (mecanismos de feedback) establecen que el estrés se produce cuando se rompe el balance entre la percepción de la demanda y la percepción de su propia capacidad de afrontamiento. Los autores resaltan que lo realmente importante es la evaluación cognitiva de la potencialidad estresante de la situación y de su habilidad para afrontarla.
MODELO PROCESUAL DEL ESTRÉS
El estrés implica un conjunto complejo de variables que funcionan a diferentes niveles y que interaccionan entre sí diacrónicamente.
Elementos esenciales:
1)     Presencia de  agentes externo o internos
2)     Procesos de evaluación cognitiva
3)     Estrategias de afrontamiento
4)  Complejo de respuestas psicológicas y fisiológicas que suelen definirse como reacción al estrés
5) La influencia de variable moduladoras asociadas a elementos predisposicionales y demográficas

El estrés psicosocial de Sandín

Demandas psicosociales

      Agentes externos causales primariamente del estrés:
1)     Agentes psicosociales. Cuando se alude al estrés psicosocial nos referimos:
A.    Sucesos mayores o sucesos vitales:
Pérdida de trabajo
B.    Sucesos menores
Estrés diario
C.    Estrés crónico
Estrés laboral
2)     Agentes ambientales naturales estresores ambientales que se han sugerido como agentes altamente patógenos para la salud somática y psicológica:
a)    Radiación
b)    Electricidad atmosférica
c)     Frío
d)    Calor
e)    Viento
f)      Humedad
g)    Magnetismo, etc.
3)     Artificiales:
a)     Ruido
b)     Contaminación atmosférica
c)      Radiaciones, etc.
o      Ejemplos:
Ruido de la ciudad
Congestión del tráfico
Elevada densidad de población
    Un estatus socioeconómico bajo suele asociarse a más estresores psicosociales, a peor apoyo social y características personales negativas.

Evaluación cognitivaVariable mediadora

   Valoración cognitiva que efectúa el individuo con respecto a la situación o demanda psicosocial. La evaluación cognitiva suele ser consciente, aunque también puede no serlo, y suele implicar siempre alguna forma de amenaza para el individuo. Facetas relacionadas:
   Tipo de amenaza suscitado por la demanda psicosocial, la cual puede ser:
a)     De pérdida
b)    De peligro, más o menos inminente
c)     De desafío.
     Características de la demanda
a)     Valencia
1)     Positivo
2)     Negativo
b)    Independencia o dependencia de las acciones del individuo
c)     Predecibilidad demanda esperado o inesperada
d)     Controlabilidad. Se puede controlar o no

Respuesta de estrés

      Complejo de respuestas fisiológicas:
1)     Neuroendocrinas
Liberación de catecolaminas
Liberación de cortisol
2)     Asociadas al SNA
Activación del simpático
Inhibición del parasimpático
3)     Respuestas emocionales:
Ansiedad
Depresión

AfrontamientoVariable mediadora

      Esfuerzos conductuales y cognitivos que emplea el sujeto para hacer frente a las demandas estresantes, así como también para suprimir el estado emocional del estrés. Última etapa del proceso del estrés.
      Un afrontamiento eficaz del estrés podría influir por feedback negativo sobre la valoración cognitiva de la situación, así como sobre la propia situación psicosocial.
   Una relación muy estrecha ocurre entre el afrontamiento y los componentes psicológicos y fisiológicos de la respuesta de estrés.
    En ciertas circunstancias resulta difícil separar una reacción emocional o cognitiva y un proceso de afrontamiento (la conducta de descargar el mal humor con los demás).
    Las variables mediadoras intervienen por sí mismas activando o reduciendo las respuestas de estrés, median los efectos  de los estresores sobre las respuestas, las variables moderadoras o moduladoras actúan sobre las variables mediadores, moderando dichas respuestas.
      El afrontamiento sirve:
a)     Para cambiar la situación de la que emergen los estresores
b)    Para modificar el significado de la situación para reducir el grado de amenaza
c)     Reducir los síntomas del estrés
   Constituye el elemento esencial que emplea el individuo para hacer frente al estrés, pudiendo dirigir su acción tanto a los estresores (tratando de eliminarlos o reducir su nivel de amenaza) como a sus propias respuestas fisiológicas, psicológicas o sociales.

Características personales

    Conjunto de variables que pueden influir sobre las cuatro etapas anteriores:
a)     Personalidad
b)    Factores hereditarios
c)     Sexo
d)    Raza, etc.
   Variables relativamente estables y que diferencian unos individuos de otros.
     Las personas perciben de forma diferente las amenazas de las situaciones estresantes, también pueden emplear diferentes habilidades, capacidades y recursos, personales y sociales para hacer frente a las condiciones potencialmente estresantes.
      Las características personales determinan en gran medida la evaluación que el individuo haga de la demanda psicosocial e influyen en las estrategias de afrontamiento.
    Disposiciones personales para responder al estrés más con unas características que con otras.
      Recursos individuales de afrontamiento:
1.     Locus de control
2.     La percepción de control
3.     La autoeficiencia
4.     La autoestima
5.     El sentido del optimismo
6.     La resiliencia, etc.
     Las variables personales pueden mediar las respuestas del estrés a través de su acción sobre los mecanismos de afrontamiento y otros niveles del proceso del estrés.

Características sociales

    Apoyo social: recurso social del afrontamiento del estrés, un fondo del que la gente puede disponer cuando necesita hacer frente a los estresores. Acciones llevadas a cabo a favor de un individuo por otras personas, amigos, familiares, etc., proporcionan asistencia:
1.     Instrumental
2.     informativa
3.     emocional
     Puede ser ayuda percibida o recibida:
·        Los efectos de: apoyo social percibido parecen ser más significativos que los del apoyo social recibido.
   Representan los recursos que en realidad utiliza un individuo para hacer frente a los problemas y dificultades de la vida. Un aspecto importante consistiría en integrar la implicación conjunta de estos componentes, tanto el apoyo social percibido y recibido por el individuo como la estructura y redes sociales en que se articula dicho apoyo social. La pertenencia al grupo ayuda al individuo a manejar la información relacionada con el estrés, así como también a incrementar su nivel de autoestima y de resistencia a los efectos de éste.
     Redes sociales: Totalidad de los recursos sociales de los que un individuo puede potencialmente disponer
    Nivel socioeconómico: Se ha aportado evidencia sobre la enorme relevancia de este nivel con los diversos procesos relacionados con el estrés (demandas psicosociales, formas de afrontamiento, etc.

Estatus de salud

    Más que una fase del proceso del estrés se trata de un resultado del mismo. Este estado de salud fisiológico y psicológico depende del funcionamiento de las fases anteriores. Un afrontamiento inapropiado, puede ser nocivo con la salud:
1.     Fumar
2.     Autoaislamiento
3.     Reducción del ejercicio físico, etc.
      La psicopatología del estrés trata de explicar:
1.     Los mecanismos del estrés
2.     Diferentes niveles de actuación
3.     Relacionados con la alteración de la salud
4.     Trata de integrar en mayor o menor grado los diferentes componentes
5.     Toma como marco de referencia un aspecto o fase del proceso del estrés.
      Los diferentes autores ponen énfasis en:
1.     Sucesos vitales
2.     Variables de personalidad
3.     Afrontamiento
a.     Activo
b.     Pasivo
4.     Reacciones emocionales
a.     Ira
b.     Depresión
c.     Desesperanza, etc.


DEMANDAS PSICOSOCIALES (ESTRÉS PSICOSOCIAL)
Se centra en los agentes externos (psicosociales) estresantes. Esta perspectiva entiende que los acontecimientos estresantes constituyen el estrés, los cuales producen alteración (strain) en el funcionamiento psicológico o somático del organismo.
 Los dos tipos de demandas psicosociales o estrés psicosocial:
Sucesos vitales (life events) o sucesos vitales mayores
Sucesos menores o estrés diario (microeventos)
SUCESOS VITALES

El enfoque de los sucesos vitales:

Nuevo marco teórico del estrés
Tomas H. Holmesdesarrolló el enfoque de los sucesos vitales. Harold G. Wolff y Adolf Meyer conceptualizaron la enfermedad como un proceso biopsicosocial, influyendo en la orientación científica de Holmes.
Meyer interesado por la interrelación entre la biología, la psicología y la sociología, en relación con los procesos de salud y enfermedad, desarrollo en los años 20 y 30 lo que denominó life chart (historia vital). Mediante esta ficha personal, en cada paciente se describían sus situaciones vitales ordenados cronológicamente. Dichas situaciones eran:
1.     Experiencias de la persona
2.     Relativas a su estilo de vida
3.     Implicación personal

Meyer pretendía conocer el contexto psicosocial en el que aparecían las enfermedades.
Holmes desarrolló un marco teórico y metodológico para investigar las relaciones entre el estrés y la enfermedad basada en los fenómenos psicosociales.
Ø      Su primera idea la llevó a cabo con el sociólogo Norman Hawkins, consistió en transformar la historia personal en una prueba de autoinforme, dando lugar a la Schedule of Recent Esperience (SER) (Inventario de Experiencia Reciente). Con la primera versión de la SER (1956), Holmes intentó reflejar el gravamen psicosocial a que están sometidos los individuos (en particular los que padecen alguna enfermedad) para relacionarlo con la salud. La SER consistía en ítems sobre sucesos vitales (life events). Se seleccionaron los que habían resultado ser significativos en las historias personales, y que parecían asociarse con el inicio de las enfermedades.
Los sucesos vitales son definidos por Holmes como:
Ø      Eventos sociales que requieren algún tipo de cambio respecto al habitual ajuste del individuo. Los sucesos vitales pueden evocar primariamente reacciones psicobiológicas. Los sucesos vitales se podrían denominar como cambios vitales. A mayor cambio, mayor probabilidad de enfermar. Esta aproximación suponía un cambio radical respecto a la tradicional orientación médica, sustituyendo el clásico modelo que entiende la causa de la enfermedad unifactorialmente (agente patógeno) por un enfoque más complejo y multidisciplinar (bio-psico-social). Este fenómeno tal vez es uno de los aspectos más importantes de la orientación psicosocial del estrés.
El grupo de Holmes publicó el primer método escalado para cuantificar el estrés psicosocial (impacto psicosomático potencial) (1967).
Se universalizó toda una línea de investigación sobre el estrés y la salud que sigue vigente en el momento actual. Los sucesos vitales son definidos como experiencias objetivas que alteran o amenazan con alterar las actividades usuales del individuo, causando un reajuste sustancial en la conducta de dicho individuo.
La principal propiedad aceptada como definitoria de los sucesos vitales es el cambio;
Los sucesos vitales son aquellos acontecimientos que implican cambio en las actividades usuales de los individuos que los experimenta (el potencial estresante de un suceso vital está en función de la cantidad de cambio que conlleva).
Los sucesos pueden ser:
1.     Extraordinarios
2.     Traumáticos
3.     Normativos

Se asumen como fenómenos que inducen reacciones fisiológicas y/o psicológicas perturbadoras, es frecuente encontrarlos en la biografía científica bajo la denominación de sucesos vitales estresantes. Algunos autores sugieren que esta denominación debería evitarse, ya que la frase implica una tautología, los sucesos vitales son identificados por las respuestas que evocan (los sucesos vitales estresantes son aquellos que producen estrés).

Sucesos vitales múltiples
A veces se ha investigado el efecto de sucesos vitales únicos (aproximación de evento único) sobre la salud. Se selecciona un caso o un grupo de casos que han sufrido un acontecimiento vital altamente traumático. Estos tipos de investigación se hacer un estudio psicopatológico intensivo sobre el caso o grupo de sujetos. Esta modalidad de investigar el estrés se ha basado en diversos tipos de eventos, sobre los cuales podrían destacarse las siguientes categorías:
1.     Trabajos relacionados con situaciones bélicas
2.     Víctimas de terrorismo
3.     Víctimas de la violencia en general
4.     Personas con enfermedades terminales u operaciones quirúrgicas mayores
5.     Casos de migraciones
6.     Desastres naturales
7.     Sucesos vitales altamente traumáticos
Holmes introdujo la aproximación basada en el estudio de sucesos múltiples. Las directrices de esta línea se han basado con estudiar:
Ø      El impacto de los sucesos vitales recientes (evaluados generalmente de forma retrospectiva: por ejemplo los últimos dos años) sobre la salud.
Esta orientación es la que tenido un desarrollo más significativo durante las dos últimas décadas, sobre todo por haber desarrollado un nuevo modelo de evaluación del estrés, centrado en esta aproximación multieventos. Holmes partió de la idea de que el estrés que experimenta una persona en la vida real debe obedecer a múltiples sucesos, ya que raramente los individuos están expuestos al efecto de un solo evento durante un período de tiempo más o menos largo.
El SER es el primer instrumento psicométrico desarrollado por el grupo de Holmes, incluye una lista de sucesos vitales en la que el sujeto debe señalar los que le han ocurrido en un período de tiempo reciente.
En 19167 publican la Escala de Estimación del Reajuste Social (Social Readjustment Rating Scale, SRRS):
Consiste en un método psicométrico estándar de estimación del reajuste social mediante unidades de cambio vital (UCV).
Se trata de asignar un valor (ponderación) a cada suceso vital.
Cada valor de la escala representa una estimación del cambio vital o grado de cambio y reajuste impuesto por un suceso vital.
Procedimiento  de escalamiento basado en la psicofísica, tenía por finalidad servir como referencia para cuantificar el  estrés (en unidades de  cambio vital) correspondiente a los sucesos registrados en la SRE. La SRRS incluye una lista de 43 sucesos ordenado según su valor en UCV. Así por ejemplo, el primer suceso de la jerarquía es el correspondiente a la “muerte del esposo/a”, con un valor de 100, el suceso vital “matrimonio” ocupa el séptimo lugar con 50 UCV, y las “pequeñas violaciones de la ley” ocupan el último lugar como 11 UCV (la lista de la SRRSaparece reproducida con mucha frecuencia en las publicaciones sobre el estrés).
Holmes demostró que muchos de estos sucesos precedían al desarrollo de los trastornos, físicos y psicológicos. Idea apoyada por otros autores , estas escalas han ejercido una gran influencia sobre los métodos actuales de evaluación del estrés psicosocial.
Ø      “Prácticamente la totalidad de los cuestionarios actuales sobre sucesos vitales que por cierto son muchos se fundamentan o se solapan de forma más o menos explícita con la SER. Este cuestionario sufrió con el tiempo modificaciones efectuadas por autores asociados al propio grupo de Holmes, bien por necesidades de adaptarlo a poblaciones especificad (militares), o bien por la conveniencia de incorporar un sistema de escalamiento individualizado de las unidades de cambio vital (percepción personal.). La SERha sido adaptada a los idiomas más importantes del mundo y se ha aplicado a diferentes tipos de razas y contextos socioculturales. También se ha aplicado a modo de entrevista estructurada. A pesar de la enorme proliferación actual de escalas de sucesos vitales, la SER, en alguno de sus diversos formatos o adaptaciones, sigue siendo el instrumento de evaluación del estrés psicosocial más empleado en el momento presente”.
Problemas inherentes a este modelo:
1.     Las relacionadas con el método de ponderación (no tiene en cuenta el impacto diferencial de los sucesos sobre los distintos individuos).
2.     La relativa ambigüedad en la descripción de los sucesos vitales (las descripciones son demasiado simples)
3.     La limitación del muestreo (se ha indicado que la lista de sucesos vitales es demasiado corta y poco representativa de los sucesos que ocurren en la vida real)
4.     Los sesgos individuales (contaminación retrospectiva, necesidad de buscar una explicación a la enfermedad –effort after meaning-, etc).
Se produjeron esfuerzos dirigidos a mejorar la validez y fiabilidad de evaluación del estrés mediante el método multieventos. Aparecieron nuevos cuestionarios con el propósito de subsanar los principales problemas del SER.
1 Enfoque:construyen cuestionarios siguiendo el procedimiento escalar de Holmes, pero incluyendo mayor número de ítems, como ocurre en las escalas de :
1.     Dohrenwend, Krasnoff, Askenasy y Dohrenwend (1978)
2.     González de Ribera y Morera (1983)
2 Enfoque:abandonan el sistema de escalamiento y subsiguiente ponderación, pero introducen sistemas de valoración del propio sujeto. Se trata de registrar los sucesos vitales pero evaluando también el impacto diferencial en dimensiones como:

1.     el nivel de estrés
2.     malestar emocional
3.     control
4.     impacto negativo, etc 
Ejemplos de escalas:
1.     Life Experiences Survey (LES –Escala de Esperiencias Vitales), Sarason, Johson y Siegel (1978)
2.     Cuestionario de Sucesos Vitales (CSV), Sandín y Chorot (2008).
Cuestionario (CSV):
1.     Lista de 60 sucesos vitales referidos a 9 áreas:
a.     Trabajo
b.     Académico
c.     Salud
d.     Amor/matrimonio/pareja
e.     Familia/hijos
f.       Social
g.     Legal
h.    Finanzas
i.       Residencia
El cuestionario permite medir la ocurrencia de sucesos vitales, el grado de estrés percibido, y la valoración de los sucesos como positivo/negativo y esperado/inesperado.
Sucesos vitales y salud
La cuantificación del estrés se lleva a cabo a través de la medida de los sucesos vitales. Estos pueden evaluarse:
1.     En cuanto a su ocurrencia
2.     Pueden también ponderarse sobre la base de sistemas escalados (según UCV)
3.     Pueden ser ponderados por el propio individuo (evaluación del impacto negativo, evaluación de UCV, etc.).
Ø      Se entiende que a mayor puntuación en UCV existirá mayor riesgo de desarrollar un trastorno (físico o psicológico).
El grupo de Holmes ha sugerido el siguiente criterio tomando como referencia el último año transcurrido:
1)     300 o más UCV = 80% de posibilidad de enfermar en el futuro cercano
2)     150-299 UCV = 50% de posibilidad de enfermar en el futuro cercano
3)     Menos de 150 UCV = 30% de posibilidad de enfermar en el futuro cercano
Aunque en un principio las UCV se cuantificaban únicamente de forma objetiva (ponderación estándar) los seguidores de Holmes incluyeron variables psicológicas mediadoras como la percepción que tiene el sujeto del suceso. Rahe y Arthur desarrollaron una versión modificada de la SER para evaluar las UCV subjetivas (valoradas por el individuo).
 
 Los sucesos vitales constan de varias etapas:
1.     Etapa 1: codificados por la percepción del sujeto, dependiendo de esto el que sean o no relevantes para la salud (esta etapa tiene cierta equivalencia con la valoración cognitiva señalada por Lazarus).
2.     Etapa 2: si el suceso es percibido como significativo se ponen en marcha los mecanismos de defensa del individuo (cierta correspondencia con el afrontamiento).
3.     Etapa 3: se ponen en marcha los mecanismos de defensa del individuo  los cuales determinarán los niveles de respuestas psicofisiológicas.
4.     Etapa 4: conductas que lleva a cabo el individuo para reducir las respuestas psicofisiológicas, los autores incluyen aquí un conjunto muy dispar de respuestas, la mayoría de las cuales podrían conceptuarse como estrategias de afrontamiento (ejercicio físico, evitación cognitiva, medicación, relajación, etc.).
5.     Etapa 5: aparece la enfermedad, por ejemplo un manejo de los síntomas inefectivo.
6.     Etapa 6: cuantificación mediante el diagnóstico clínico.
Un enfoque complementario, que ha sido destacado en el marco del estrés psicosocial, es el que se conoce como role strain. Según este enfoque los sucesos vitales, más que generar un cambio en el organismo, producen un cambio en los patrones (circunstancias, pensamientos, etc.) en el curso de la vida de la gente. Específicamente el role strain (tensión, presión, estrés de rol) es definido como dificultades o problemas de la vida en curso (maritales, económicos). Suele asumirse que los sucesos vitales producen las dificultades en curso. Este modelo entiende que los sucesos actúan sobre la salud a través de los problemas o dificultades, no de forma directa. Sandín piensa que esta orientación es equivalente a la nueva corriente sobre el estrés diario originada a partir de los trabajos del grupo de Lazarus, en el sentido de que los sucesos vitales pueden inducir incrementos en la ocurrencia de acontecimientos diarios (estrés diario).
b. Sucesos menores (estrés diario)
Este enfoque ha sido criticado por no explicar suficiente varianza respecto a salud y por circunscribirse predominantemente a estudios retrospectivos. Según Lazarus, se trata de sucesos diarios que por tanto ocurren con cierta cotidianidad, como las pequeñas disputas familiares, problemas económicos, etc. Se han definido como microeventos o sucesos menores.
Estos autores siguieren que tanto el estrés menor (o diario) como las satisfacciones que caracterizan la vida cotidiana poseen mayor significado para la salud que los sucesos vitales. Definen estos dos tipos de eventos como:
1)     hassles: fastidios, contrariedades o sucesos negativos. Demandas irritantes, frustrantes y estresantes (malestar emocional) que caracterizan nuestras transacciones cotidianas con el medio. Incluyen:
1.     Problemas prácticos fastidiosos como perder o romper cosas, atascos de tráfico, no disponer de dinero
2.     Sucesos fortuitos como las inclemencias del tiempo
3.     Contrariedad de interrelación social como discusiones, problemas familiares, decepciones, etc.
2)     uplifss: placeres satisfacciones. Experiencias positivas como las derivadas de manifestaciones amorosas, recibir buenas noticias, etc. Asumen que los sucesos positivos deberían estar relacionados con la salud, porque, al tratarse de experiencias de valencia positiva, podrían actuar como amortiguadores emocionales del estrés. Los datos empíricos basados en este tipo de sucesos han resultado ser escasamente consistentes.
Trabajos más relevantes han sido los datos  obtenidos a partir de sucesos diarios negativos (Santed, Sandín, Chorot y Olmedo, 2000). Algunos trabajos han señalado que este tipo de estrés es mejor predictor de los trastornos físicos y psicológicos que los sucesos vitales (Depue y Monroe, 1986; Kanner 1981). Lo que parece ajustarse más a la realidad es que ambos tipos de sucesos vitales y estrés diario (sucesos menores negativos) contribuyen de forma interactiva. Se ha presentado evidencia a favor de esta hipótesis (Sandin, Chorot, Sanded y Valiente, 2002).
Ø      Los sucesos vitales: pueden inducir nuevos sucesos diarios
Ø      Los sucesos diarios actuarían como agentes mediadores entre los sucesos vitales y las respuestas de estrés del organismo
Ø      Por lo que no tiene mucho sentido decir que los sucesos diarios sean más o menos importantes que los sucesos vitales.
Aparte de las propias escalas del grupo de Lazarus, recientemente se han desarrollado otros cuestionarios alternativos, tanto para poblaciones de adultos como infantiles/juveniles. Nuestro grupo desarrolló el Cuestionario de Estrés diario (Santed, Chorot y Sandín, 1996) para su aplicación a la población española. Está construido por una lista de 44 sucesos, y tanto su estructura como su concepción general están inspiradas en la escala de Delongis (1988)..
Desde el punto de vista psicopatológico, la investigación basada en el empleo conjunto de ambas estrategias (sucesos mayores y menores) permitirá obtener una idea más exacta respecto a los mecanismos implicados en los efectos del estrés psicosocial sobre la alteración de la salud. La evaluación del estrés diario facilitará la obtención de datos de forma longitudinal, lo cual será de enorme utilidad para poder establecer relaciones causales entre le estrés y los problemas de salud. También podrán llevarse a cabo estudios de covariación entre los sucesos diarios y las variaciones en las respuestas asociadas al estrés:
1.      Fisiológicas,cambios endocrinos
2.      Psicológicas: ansiedad, depresión, conductas de enfermedad
Problema metodológico:
a)     Banda de dispersión de los sucesos asociados al estrés a veces resulta difícil distinguir si se trata de una suceso vital o de un suceso diario.
b)     Suele producir ciertos solapamientos entre ambos tipos de escalas.
c)     Items relacionados con problemas con los hijos, problemas económicos, discusión con los vecinos, etc. pueden encontrarse indistintamente en las listas de sucesos mayores o vital y menores o diarios.
Posible confusión de medidas
a)     se produce cuando, incluyendo en la lista de ítems relativos a la salud, posteriormente las relacionamos con indicadores también de salud, se pueden confundir VD con síntomas.
b)     Los sucesos de salud son relevantes y deben utilizarse en las listas de sucesos vitales (y/o menores)
c)     Deben usarse con las debidas cautelas al considerarlos como variables independientes y relacionarlos o hacer inferencias respecto a posibles variables dependientes de salud.
El problema de la confusión de medidas guarda relación con la hipótesis de Watson y Pennebaker (1989), la cual defiende que muchas de las medidas por autoinforme del estrés encierran un sesgo debido al componente de emocionalidad negativa implícito en los ítems reflejados en las listas de eventos. Los sujetos con mayor grado de estrés en los cuestionarios. El control de esta variables debe ser un aspecto a considerar al hacer inferencias sobre estrés y salud, sobre todo su se incluyen sucesos que implican síntomas.
Evaluación cognitiva
La relevancia de la valoración o evaluación cognitiva del estímulo potencialmente estresante fue definitivamente incorporada por Lazarus al acervo científico de la psicopatología del estrés.

                                      Richard Stanley Lazarus

En principio el modelo psicosocial del estrés, siguiendo las directrices de Holmes, no consideraba esta variable como particularmente relevante a la hora de predecir la enfermedad desde el estrés.
Ø     Se vio la necesidad de incluir variables de corte cognitivo (evaluación, percepción, etc.), variables ubicadas en la propia persona. La importancia de este tipo de variables ya se había sugerido a partir de la investigación experimental.
 Weiss daba gran importancia al control percibido por el sujeto en situaciones de estrés, sólo los animales experimentales que no poseían control desarrollaban úlcera péptica, aun recibiendo los mismos estresores que otros animales. Otras líneas de investigación diferentes a las de Weiss han aportado datos semejantes sobre la implicación de ésta y otras variables psicológicas (predecibilidad, novedad, etc.) como agentes mediadores entre el estresor y la salud.
Se ha demostrado la implicación entre variables psicológicas como los agentes mediadores entre el estresor y la salud.
El control percibido reduce las respuestas de estrés por la actuación de dos posibles mecanismos implicados:
a)     La ganancia de información asociada al control se traduce en un incremento de la predecibilidad de estresor (Feuerstein, 1986).La ganancia de información asociada al control se traduce en un incremento de la predecibilidad del estresor y anticipación del evento aversivo.
b)     Respuesta anticipatoria: Anticipación del evento aversivo consiste en una preparación cognitiva para un suceso, implicando la interpretación y evaluación del suceso. Prepara al organismo para hacer frente a la situación amenazante, anticipándose a la llegada efectiva del agente estresor. (Sandin, 1981).
El control percibido puede ser un mediador importante de la respuesta de estrés. Se ha indicado con frecuencia que más importante que el control real es el control que percibe el sujeto o, como algunos autores han sugerido, la ilusión de control.
Paralelamente al desarrollo del modelo de Holmes se producen movimientos que llevan a medir el estrés sobre la base de dimensiones psicológicas asociadas a la evaluación cognitiva. Los cuestionarios de sucesos vitales comienzan a incluir la variable de estrés percibido o malestar personal (distress) producido por el suceso, o características como:
a)     La deseabilidad
b)     Controlabilidad
c)     Negatividad (positivismo/negativo)
d)     Predecibilidad (esperado/inesperado)
e)     Novedad
f)       Dependiente vs. independiente
Dependiendo de la forma en que el sujeto evalúe estas dimensiones puede variar el efecto del suceso vital. Cuando el sujeto percibe los sucesos como negativos,  incontrolables, impredecibles, independientes e indeseables suelen perturbar la salud de forma más prominente.
La valencia de estas dimensiones no siempre está determinada únicamente por la valoración o percepción que hace la persona. También el tipo de situación puede ser hasta cierto punto determinante. De suyo, existe más bien una interacción entre ambos, siendo menos manifiesta la influencia de la percepción/valoración de la persona cuando la imposición ambiental es mayor, y viceversa. Un evento que ocurre independientemente del sujeto, como puede ser la pérdida de un amigo íntimo, implica que la persona lo perciba como totalmente incontrolable; en cambio, un suceso sobre una disputa familiar puede ser más o menos dependiente de la conducta del sujeto, y más o menos controlable, Aunque el individuo puede evaluar cada elemento situacional, también la situación pueda condicionar determinadas formas de evaluación cognitiva.
Afrontamiento del estrés
El afrontamiento o coping es un concepto que se ha empleado con diferentes sentidos.
1.      Se ha entendido como una reducción o supresión del estado de estrés, es decir, como un resultado:
Ø     Cuando desaparece la respuesta fisiológica de estrés, entonces se dice que existe coping.
Tal significado es defendido por Levine, Weinberg y Ursin (1978), quienes lo ejemplificaron en la siguiente frase:
“coping es cuando mi estómago no me molesta”.
Defienden que la mejor medida del  coping es la variación en las respuestas fisiológicas asociadas al estrés (no consideran que las respuestas conductuales sean fiables en este sentido). Esta conceptuación del afrontamiento no suele ser empleada en el momento actual, pues como ha referido Lazarus confunde el proceso con el resultado.
En términos generales, actualmente:
Ø     se entiende el afrontamiento como los esfuerzos tanto cognitivos como conductuales, que hace el individuo para hacer frente al estrés, es decir, para manejar tanto las demandas externas o internas generadoras del estrés, como el estado emocional desagradable vinculado al mismo.
En psicofisiología el término afrontamiento ha sido usado en un sentido bastante restringido, habitualmente para denotar formas de orientar la conducta hacia estrés de laboratorio (Vingerhoets, 1975).
Obrist lo usó para indicar el grado de control que tiene el sujeto sobre un estímulo en una situación experimental:
1.      En un paradigma de condicionamiento clásico se induce afrontamiento pasivo, ya que el sujeto nada puede hacer para controlar el estímulo estresor.
2.      En un procedimiento de evitación (activa) se induce afrontamiento activo
En diversos estudios de laboratorio se ha observado que las respuestas cardiovasculares al estrés varían según se trate de una situación experimental de afrontamiento pasivo o activo.
1.      Durante condiciones de afrontamiento pasivose ha constatado un incremento notable en la presión sanguínea diastólica, pero no en frecuencia cardíaca o presión sistólica.
2.      En contraste, el afrontamiento activoinducía elevación de la tasa cardíaca y de la presión sistólica. (Obrist, 1981).
Algunos investigadores han sugerido que los efectos fisiológicos que acompañan al afrontamiento activo pueden ser importantes en el desarrollo de la cardiopatía coronario y la hipertensión esencial. Varios autores ha utilizado la distinción entre afrontamiento activo y pasivo, o bien con otras denominaciones dicotómicas equivalentes, como lucha-huida/conservación-retraimiento, aproximación/evitación, etc. (Sandín, 1989).
El afrontamiento se relaciona de forma bastante estrecha con las dimensiones de evaluación cognitiva de la situación, de tal forma que a veces resulta difícil separar ambos componentes. Cuando un animal experimental es sometido a estímulos estresores de laboratorio (descarga eléctrica) impredecibles e incontrolables (implica la imposibilidad de escape), nos encontramos ipso facto ante una situación experimental de coping pasivo.
Ante estas circunstancias es fácil provocar experimentalmente algunas alteraciones físicas como:
1.      Úlceras gastrointestinales. (weiss, 1971)
2.      Hipertensión (folkow, 1975)
3.      Desarrollo de tumores (sklar y anisman, 1979)
4.      Alteraciones psicológicas como la indefensión/depresión (Seligman, 1975).
Actualmente parece haber suficiente consenso en el sentido de apoyar que el afrontamiento juega un papel importante como componente mediador entre las circunstancias estresantes y la salud. Aunque el afrontamiento se ha empleado con mucha frecuencia desde diferentes perspectivas, incluso actualmente este constructo se encuentra escasamente integrado en el cuerpo teórico de la psicopatología del estrés. Algunos autores piensan que esto se debe al que el concepto de afrontamiento no está todavía sustentado por un cuerpo teórico o un modelo apropiado de evaluación del mismo que permitan investigar con él de forma efectiva (Folkman, 1982).
El desarrollo teórico y metodológico del concepto de afrontamiento podía agruparse en dos aproximaciones distintas, una que lo asume como un estilo personal de afrontar el estrés, lo cual significa que es relativamente estable, y otra que lo entiende como un proceso.

Las Tres Esfinges de Bikini“, cuadro de Salvador Dalí, 1947. 
Estilos de afrontamiento
El psicoanálisis introdujo el concepto de defensas del yo para referirse a los mecanismos que emplea el sujeto para hacer frente a los agentes que tenían contra su integridad. Las teorías sobre los mecanismos de defensa del yo influyeron de forma notoria en la psicología clínica, se asocian ciertos mecanismos defensivos a formas psicopatológicas específicas. Se asumía que la paranoia se producía por el mecanismo de proyección, la histeria por la represión y la obsesión-compulsión por la intelectualización. Sin embargo la relación entre formas de psicopatología y defensas específicas ha sido más un ideal conceptual que una realidad clínica. La orientación psicoanalítica influyó en algunas teorías posteriores focalizadas en la caracterización de estilos de afrontamiento (en particular respecto a la consideración de un posible estilo defensivo).
Los estilo de afrontamiento se han formulado partiendo de la base de que se trata de disposiciones personales para hacer frente a las distintas situaciones estresantes. Uno de los modelos, centrando en el concepto de estilos de coping, el  de represor/sensibilizador (Byrne, 1964).
1.      Represor: negación y evitación
2.      Sensibilizador: vigilante expansivo
Se han referido algunos datos que documentan la validez de este constructo.
Hofer, Wolff, Friedman y Mason (1972) para conocer las estrategias las estrategias de afrontamiento de un grupo de padres cuyos hijos padecían una enfermedad terminal (leucemia), los autores constataron que las personas represoras (interiorizaban el problema) tenían niveles mucho más elevados de 17-OHCS durante los momentos críticos de la enfermedad que los demás padres.
Los no represivos (personas expansivas) con tendencia a exteriorizar problemas presentaban niveles vados de 17-OHCS.
Byrne sugirió que la estrategia defensiva de los individuos al estrés puede localizarse en algún punto de la dimensión bipolar represión/sensibilización.
Se trata de un constructo unidimensional del afrontamiento:
Ø     En un extremo se sitúan las personas altamente sensibilizadoras y en el otro las muy represoras.
Ø     Los represoresinforman que experimentan baja ansiedad ante situaciones de estrés emiten elevadas respuestas fisiológicas.
Ø     Lo contrario ocurre con los sensibilizadores, tienden a informar de mayor grado de ansiedad no se refleja en los registros fisiológicos.
Se ha sugerido que represores y sensibilizadores utilizan códigos defensivos opuestos.
Represores: niegan psicológicamente la ansiedad
Sensibilizadores: incrementan el estrés psicológico
Ambos tienden a responder al estrés de forma estereotipada, en lugar de  establecer respuestas apropiadas a las demandas de la situación, reaccionan con excesiva frecuencia empleando códigos defensivos, incluso cuando las demandas son débiles.
La investigación experimental, no obstante, parecía indicar que entre los designados como represores podrían existir personas con verdadera baja ansiedad; igual con respecto a los sensibilizadores, personas con verdadera alta ansiedad.
Weinberger, Schwartz y Davidson (1979) estudiaron experimentalmente el problema. Basándose en datos de respuestas fisiológicas a estresores de laboratorio y a puntuaciones en autoinforme de ansiedad (AA) y deseabilidad social (DS) (Crowne y Marlow, 1964), sugirieron los cuatro tipos siguientes de afrontamiento del estrés:
1.      Represor 
(alta puntuación en DS y baja en AA): +DS y –AA
2.      No-defensivo/no-ansioso
(baja puntuación en DS y AA): -DS y -AA
3.      No-defensivo/ansioso 
(baja puntuación en DS y alta en AA): -DS y +AA
4.      Defensividad ansiosa 
(alta puntuación en DS y alta en AA): +DS y +AA
Los tipos represor y defensividad ansiosa exhiben puntuaciones elevadas en  defensividad (deseabilidad social).
1.      Represoremite altas respuestas fisiológicas ante estímulos estresores, a pesar de que informa de experimentar baja ansiedad (reduce cognitivamente la ansiedad de forma defensiva)
2.      Defensividad ansiosa emite bajas respuestas psicofisiológicas a pesar de informar de altos niveles de ansiedad (incrementa la ansiedad defensivamente)
En los tipos no defensivos (puntuaciones medias o bajas en DS) correlacionan las respuestas fisiológicas con el autoinforme de ansiedad (sujetos que afrontan el estrés con verdadera ansiedad informada, alto o baja).
Un modelo más reciente de  estilos de afrontamiento que ha adquirido gran relieve es el de los estilos cognitivos  de Miller (1987)
Monitoring: Incrementador grado con que un individuo está alerta y sensibilizado respecto a la información relacionada con la amenaza.
Blunting: Atenuador el grado con que un individuo evito o transforma cognitivamente la información de amenaza, ayuda al individuo a atenuar el impacto psicológico del origen objetivo del peligro.
El modelo se basa, en el modo en que los individuos cognitivamente procesan la información relacionada con sucesos aversivos, para reducir las reacciones de estrés concomitantes. Estos tipos se han operativizado evaluando las preferencias que tienen las personas por la información y la distracción, mediante la escala Miller Behavioral Style Scale (MBSS) (existe una versión española; Chorot y Sandín, 1990).
Se ha referido que ambos tipos Incrementador y atenuador, pueden predecir algunos fenómenos psicopatológicos asociados al estrés. Existe evidencia de que los incrementadores tienden a valorar como amenazantes las situaciones ambiguas. Se ha observado que este tipo de personas atienden más a las situaciones negativas (implican cierta amenaza potencial), pudiendo influir sobre el propio proceso de evaluación cognitiva. Miller ha indicado que estos estilos de afrontamiento pueden se más o menos adaptativos en función del tipo de situación estresante (Controlabilidad de la situación)
Tipos de situaciones
Estilos
Controlables
Incontrolables
Bajo Incrementador y alto atenuador –I y +A
Interfieren con la ejecución
Reduce la ansiedad y la frustración de acciones instrumentales
Alto incrementador y bajo atenuador +I y – A
Permite la ejecución
Incrementa la ansiedad y la frustración de acciones instrumentales
Valor adaptativo de los estilos de afrontamiento Incrementador (monitoring) y atenuador (blunting) según que las situaciones sean controlables o incontrolables (Miller, 1990)
1.       La combinación bajo incrementador/alto atenuador es una forma efectiva para afrontar situaciones en las que la amenaza es incontrolable o ante frustración aversiva por demora en la gratificación.
2.           Los modos alto Incrementador/bajo atenuador son formas efectivas de afrontamiento cuando el contexto permite un mayor control de la amenaza (por ejemplo en paradigma de evitación activa).
Cuando una situación es controlable, como por ejemplo, reducir el propio riesgo hacia el infarto disminuyendo el consumo de cigarrillos, incrementar la información (alto incrementador/bajo atenuador) permite que el individuo pueda regular apropiadamente su conducta
Cuando la persona ignora la información o tiende a distraerse (bajo incrementador/ alto atenuador) respecto a los riesgos sobre la salud, se encuentra desmotivado para adoptar acciones adaptativas y más saludables.
Kohlmann (1993),basándose en los constructos de:
1.      Deseabilidad social(Crowne y Marlow, 1964)
2.      Incrementador/atenuador(Miller, 1987)
3.      Sensibilizador/represor(Burne, (1964)
Han propuesto cuatro patrones de afrontamiento que recuerdan a los tipos introducidos por Wienberger (1979). Se resumen en la siguiente forma:
1 Modelo vigilante rígido
Se lleva a cabo por personas con alta vigilancia y baja evitación (sensibilizadores). Tendencia a buscar información sobre el estresor para configurar una imagen mental de la confrontación anticipada, ya que este tipo de personas se estresan primariamente por la experiencia de incertidumbre respecto a una situación de amenaza.
2 Modo evitador rígido
Típico en personas de baja vigilancia y alta evitación (represores). Se asume que la activación emocional producida por las señales anticipatorias de la confrontación produce gran nivel de amenaza al sujeto, por lo que tienden a prestar poca atención a las características amenazantes del estresor.
3 Modo flexible: Uso flexible de estrategias relacionadas con la situación.
Característico en personas no defensivas, aquellas con un patrón de baja vigilancia y baja evitación. Ante una situación de amenaza, no les cuesta tolerar ni la posibilidad de incertidumbre ni la sorpresa negativa de una posible activación emocional. Se entiende que la utilización flexible de estrategias de afrontamiento se caracteriza por una mermada orientación hacia los requerimientos situacionales que prevalecen en cada momento.
4 Modo inconsistente: Afrontamiento ineficaz
Exhiben este tipo de afrontamiento aquellas personas con alta vigilancia y alta evitación (personas ansiosas). Se estresan fuertemente tanto por la incertidumbre de la situación relevante como por la activación emocional elicitada por las señales anticipatorias. Se asume que esto conlleva una conducta de afrontamiento inestable. Cuando el sujeto intenta alejarse del estresor para reducir la ansiedad, se produce incremento de la incertidumbre con el consecuente incremento del estrés, y viceversa.

El afrontamiento como proceso
Lazarus y Folkman (1984) propusieron un enfoque alternativo al modelo centrado en los estilos de afrontamiento. Desde un punto de vista procesual, el afrontamiento se define como los esfuerzos en curso cognitivos y conductuales para manejar las demandas externas o internas que son evaluadas como algo que grava o excede los recursos de la persona. Consiste en los esfuerzos cognitivos y conductuales para manejar el estrés psicológico.
Afrontamiento como proceso supone asumir:
  1. El término afrontamiento se emplea en el proceso, da igual que sea adaptativo o inadaptativo.  No existen procesos de afrontamiento universalmente buenos o malos. Dependes de numerosos factores
  2. El afrontamiento depende del contexto. Varía en función de las significación adaptativa y los requerimientos de otras amenazas.
  3. Algunas estrategias de afrontamiento son más estables o consistentes que otras a través de las situaciones estresantes. Lazarus ha obtenido datos que indican más estabilidad para la estrategia reevaluación positiva que para la búsqueda de apoyo social.
  4. Existen dos funciones principales del afrontamiento, una focalizada en el problema y otra en la emoción. La función focalizado en el problema es cambiar la relación ambiente-persona actuando sobre el ambiente o sobre sí mismo, manejando o alterando la fuente de estrés. La función de afrontamiento focalizado en la emoción es cambiar el modo en que se trata o interpreta lo que es´ta ocurriendo, para mitigar el estrés, se trata de regular la respuesta emocional del estrés, cambiando el significado relacional de lo que está ocurriendo.
  5. El afrontamiento depende de la evaluación respecto a que pueda o no hacerse algo para cambiar la situación. Si la valoración dice que puede hacerse algo, predomina el afrontamiento focalizado en el problema. Si la valoración dice que no puede hacerse nada, entonces predomina el afrontamiento focalizado en la emoción.

DIMENSIÓN
DESCRIPCIÓN
Confrontación
Acciones directas dirigidas hacia la situación
Distanciamiento
Tratar de olvidarse del problema, negarse a tomarlo en serio
Autocontrol
Guardar los problemas para uno mismo, procurar no precipitarse
Búsqueda de apoyo social
Pedir consejo o ayuda a un amigo, hablar con alguien que puede hacer algo concreto
Aceptación de la responsabilidad
Disculparse, criticarse a sí mismo, reconocer ser el causante del problema
Escape-evitación
Esperar que ocurra un milagro, evitar el contacto con la gente, tomar alcohol, drogas
Planificación de solución de problemas
Establecer un plan de acción y seguirlo, cambiar algo para que las cosas mejores
Reevaluación positiva
La experiencia enseña, hay gente buena, cambié y maduré como persona

Dimensiones (factores) de afrontamiento

del Ways of coping  Questionnaire (WCQ) 
Folmank y Lazarus, 1988

Dimensiones correspondientes al afrontamiento focalizado en el problema:
  1. confrontación
  2. planificación
Dimensiones correspondientes al afrontamiento focalizado en la emoción:
  1. distanciamiento
  2. autocontrol
  3. aceptación de responsabilidades
  4. escape-evitación
  5. revaloración positiva
Dimensión correspondiente al afrontamiento intermedio:
  1. búsqueda de apoyo social
La ansiedad y la depresión se han relacionado positivamente con el uso de estrategias focalizadas en la emoción (evitación cognitiva), y negativamente con estrategias focalizadas en el problema.El grupo de Lazarus ha sugerido que algunas estrategias como la planificación de solución de problemas y la revaloración positiva, suelen asociarse a resultados positivos. La confrontación y el distanciamiento se han relacionado con resultados negativos. Las restantes estrategias ofrecen datos menos discriminativos:
  1. autocontrol
  2. búsqueda de apoyo social
  3. aceptación de la responsabilidad
  4. escape evitación

Estrategias básicas de afrontamiento
El grupo de Lazarus dejó constancia de que las estrategias de afrontamiento pueden ser estables a través de diferentes situaciones estresantes. Se ha aplicado el WCQ  como una medida de rasgo (no con una orientación procesual, una medida procesual del afrontamiento se convierte en una medida de rasgo o estilo de afrontamiento). Se han modificado las instrucciones de respuesta, de tal forma que el sujeto, en lugar de responder según un contexto específico, debe estimar cada una de las conductas o pensamientos de la lista según las utilice de forma característica cuando se encuentra ante estados de estrés. Se le pregunta a la persona cómo afronta usualmente el estrés. Implica una metodología diferente y una concepción más tendente a la multidimensionalidad (varias estrategias de afrontamiento), no implica aspectos asociados al concepto de defensa del yo.
Esta orientación no procesual del afrontamiento se entiende como los esfuerzos conscientes para manejar el estrés, no se admiten los procesos inconscientes. Las dimensiones del afrontamiento se consideran disposiciones generales que llevan a la persona a pensar y actuar de forma más o menos estable ante las diferentes situaciones estresantes. Empleando el inventario SR (situación-respuesta) (Multi- Situation Multi-Reaction Inventory, MSMRI) en 1990 por los autores Törestad, Magnusson y Oláh, presentaron evidencias sobre la estabilidad del afrontamiento, demostraron que el afrontamiento esta determinado por la situación y la persona (rasgo). Las estrategias de afrontamiento no se reducen ni a un proceso (dependencia de las cualidades percibidas de la situación) ni a disposiciones personales , se debe a una interacción de ambos factores.
Las personas tienden a usar ciertas estrategias de afrontamiento según tres dimensiones:
constructivo: esfuerzos cognitivos y conductuales dirigidos a tratar con los sucesos estresantes de una manera directa y confrontativa.
pasivo: soluciones dirigidas a la emoción, mediante las cuales nada puede hacerse respecto a cambiar la situación o moverse de ella.
escape: acciones cognitivas y conductuales que implican salirse del campo física o psicológicamente. 

Törestad
Lazarus
Ender y Parker
Constructivo
Focalizado en el problema
Tarea/Racional
Pasivo
Focalizado en la emoción
Emoción
Escape
Evitación


Sandín y Chorot basándose en la versión actual del CAE, han contrastado una estructura factorial consistente en las dimensiones o tendencias generales de afrontamiento:
  1. focalizado en la solución del problema
  2. autofocalización negativa
  3. reevaluación positiva
  4. expresión emocional abierta
  5. evitación
  6. búsqueda de apoyo social
  7. religión
Mediante un análisis factorial de segundo orden se obtienen se obtiene dos dimensiones más generales:
  1. afrontamiento racional
  2. afrontamiento emocional
La respuesta de afrontamiento al estrés pueden clasificarse sobre la base de los conceptos método usado y focalización de la respuesta. Según el método las respuestas pueden ser activas o de evitación, según la focalización pueden orientarse al problema o la la emoción. Cada respuesta puede ser de naturaleza cognitiva o conductual. Existen modificaciones con respecto al modelo de Lazarus (problema versus emoción), el factor afrontamiento racional saturaban:

  1. el afrontamiento focalizado en la solución del problema
  2. búsqueda de apoyo social
  3. reevaluación positiva

Existen modificaciones con respecto al modelo de Lazarus (problema versus emoción), el factor afrontamiento racional saturaban:

  1. el afrontamiento focalizado en la solución del problema
  2. búsqueda de apoyo social
  3. reevaluación positiva
Moos, Cronkite, Billings y Finney (1986) categorización del afrontamiento en dos dimensiones:
Método: 
  1. activo-cognitivo -redefinir la situación
  2. activo-conductual- acciones comportamentales para modificar la situación
Focalización:
  1. focalizada en la actuación- análisis lógico
  2. focalizado en el problema-acciones de solución de problemas
  3. focalizado en la emoción- descarga emocional 
La respuesta de afrontamiento al estrés pueden clasificarse sobre la base de los conceptos método usado y focalización de la respuesta. 
Feuerstein y cols.  (1986) partieron del modelo teórico de Moos como marco teórico para ordenar las diferentes categoría generales posibles de afrontamiento. Con tres criterios:

  1. método
  2. focalización
  3. naturaleza

Pueden establecerse ocho categorías generales del afrontamiento.

Clasificación de las respuestas de afrontamiento según
el método , la focalización y las dimensiones
cognitivo versus conductual


La respuesta de estrés
Parece que la exigencia de estrés está esencialmente unida a la presencia de algún tipo de respuesta del organismo que es etiquetada como de estrés. Se le supone un sobreesfuerzo o gravamen impuesto al funcionamiento normal del organismo (homeostasis). Esta respuesta implica un complejo de respuestas fisiológicas características. Las respuestas emocionales negativas (distress), las respuestas cognitivas y conductuales son las respuestas al estrés.


Respuestas fisiológicas

Seyle estableció las respuestas fisiológicas asociadas al estrés, implicó la activación de los sistemas neuroendocrinos hipotálamo-hipófiso-corticosuprarrenal y médulo-suprarrenal, y la activación del sistema nervioso autónomo simpático


 
 
Mason (1968) estableció la idea de totalización neuroendocrina (over-all), con eso
pretendía indicar que la forma que el sistema neuroendocrino responde a los estresores 
en forma de patrones de respuesta totalitarios, implicando de hecho a cualquier sistema 
neuroendocrino del organismo.
Patrones de respuesta hormonal durante el estrés:
1º patrón: un grupo de hormonas constituido por los 17-hidroxicortisosteroides (17-OHCS) 
y que se caracteriza por una rápida subida de los niveles de estas hormonas:
adrenalina
noradrenalina
tiroxina
hormona del crecimiento
Perfil monofásico (ascenso-recuperación), la actividad tiroidea es la que permanece 
incrementada durante más tiempo, alcanzando los valores más elevados incluso después 
de interrumpir la exposición del individuo al estresor. En este patrón están implicadas las
hormonas que producen un efecto catabolizador sobre el organismo, actividad ergotropa.
2º patrón: caída inicial del nivel hormonal:
andrógenos
estrógenos
insulina
Perfil bifásico (descenso-ascenso). Las hormonas de este patrón ejercen efectos 
anabólicos, actividad trofotropa.

Hormonas del primer patrón
Otras homonas como la aldosterona y la vasopresina no se han vinculado específicamente 
a estos patrones. Mason ha interpretado estos patrones en términos del principia de inhibición recíproca, que también parece regular la coordinación funcional de los sistemas músculo-esquelético y autónomo. La activación de los procesos catabólicos y la inhibición de los anabólicos poseen efectos directos para la posible adaptación del organismo sometido a estrés. Éste es posiblemente el coste organísmico primario inducido por el gravamen del estrés. 

Los cambios hormonales que se producen en el organismo durante el estrés podrían significar un proceso fisiológico asociado a los mecanismos del sistema nerviosos central y/o autónomo. El sistema  neuroendocrino produce la gran sensibilidad a los diferentes estímulos con propiedades emocionales.


SITUACIÓN
AUTOR CLÁSICO REPRESENTATIVO
Animales experimentales
Inmovilización
Seyle 1936
Descarga eléctrica
Levine y Treisman 1964
Ráfaga luninosa
Hill y cols. 1967
Ruido
Hill y cols. 1967
Manipulación
Ader y cols. 1967
Hacinamiento
Christian 1955
Lucha
Bronson y Eleftheriou 1965 b
Expectativa
 de lucha
Bronson y Eleftheriou 1965 b
Confinamiento
Marsh y Rasmussen 1960
Situación 
novedosa
Mason y cols. 1957
Seres humanos
Situaciones bélicas
Elmadjian 1955,
 Johannson y cols. 1970
Paracaidismo
Levine 1978,
 Hansen y cols. 1978
Instrucción de pilotos
Pincus y Hoagland 1943,
 Klepping y cols 1963
Películas emotivas
Wadeson y cols. 1963
 Levi 1965,
Alexander y cols. 1961
Competición 
 deportiva
Frost y cols. 1951,
 Elmadjian 1959,
Volpe y cols. 1960
Entrevista
 psicológica
Hetzel y cols. 1955,
 Hetzel y cols. 1955
Preoperación 
quirúrgica
Price y cols. 1957
Familiar 
con leucemia
Honey y cols. 1972
Tareas
 monótonas
Bliss y cols. 1956
Cálculo
 mental
Tatai y cols. 1951
Exámenes
Bliss y cols 1956,
 Bogdonoff y cols. 1959,
Tingley y cols. 1958
Privación 
 sensorial
Zuckerman y cols. 1966,
Mendelson y cols. 1960
Situación
 novedosa
Shanan y cols. 1965,
 Tolson y cols. 1965
Descarga 
eléctrica
Frankenhaeuser y cols. 1965
Privación del 
 sueño
Metz y cols. 1960
Concentración 
 mental
Frankenhaeuser y Patkai. 1965
Inestabilidad 
 gravitatoria
Frankenhaeuser y cols. 1962
Asociaciones 
 desagradables
Levine y Ziegler 1925
     Tipos de situaciones estresantes sobre las que se ha demostrado que inducen 
activación en los sistemas hipofiso-suprarrenal (cortisol, etc.), 
médula suprarrenal (adrenalina y noradrenalina) e hipofiso-tiroideo
 (tiroxina, etc.) en animales experimentales y en seres humanos.
                                                                                                                     
Los niveles endógenos de sustancias de tipo hormonal como las prostaglandinas o los neuropéptidos (endorfinas, encefalinas, etc.) también pueden alterarse por le estrés.
No todas las respuestas de estrés son de tipo activador. 

TIPO DE 
 RESPUESTA/ÓRGANO
TIPO DE EFECTO
   CARDIOVASCULAR
INCREMENTO 
TASA CARDÍACA
        AUMENTO PRESIÓN 
 SANGUÍNEA SISTÓLICA
AUMENTO PRESIÓN 
 SONGUÍNEA DIASTÓLICA
AUMENTO 
OUTPUT CARDÍACO
VASOCONSTRICCIÓN
 PERIFÉRICA
POSIBLES ARRITMIAS 
CARDÍACAS
OTRAS RESPUESTAS FISIOLÓGICAS
INCREMENTO TENSIÓN 
MUSCULAR GENERAL
TEMBLOR
INCREMENTO 
 TASA RESPIRATORIA
HIPERVENTILACIÓN
INCREMENTO 
DE LA SUDORACIÓN
INCREMENTO DE LA ACTIVIDAD ELECTRODERMAL
INCREMENTO 
 DILATACIÓN PUPILAR
REDUCCIÓN TENSIÓN 
MUSCULAR INTESTINAL
REDUCCIÓN
 DE LA SALIVACIÓN
REDUCCIÓN 
 AMPLITUD ONDAS EEG
REDUCCIÓN PH PIEL/SALIVA
RESPUESTAS 
 METABÓLICAS
LIBERACIÓN DE GLUCOSA
INCREMENTO EN 
 PRODUCCIÓN DE GLUCOSA
CATABOLISMO
 PROTÉICO
AUMENTO ÁCIDOS GRASOS LIBRES 
(MAYOR LIBERACIÓN DE 
ÁCIDOS GRASOS EN SANGRE)
AUMENTO DEL 
 COLESTEROL PLASMÁTICO
AUMENTO DE TRIGLICÉRIDOS PLASMÁTICOS
INCREMENTO DEL
 TRANSPORTE DE OXÍGENO
ESTÓMAGO
        INCREMENTO SECRECIONES GÁSTRICAS
BRONQUIOS
DILATACIÓN
TIMO Y 
SISTEMA INMUNE
      INVOLUCIÓN TÍMICA Y
REDUCCIÓN DE LA COMPETENCIA INMUNOLÓGICA
TIROIDES
INCREMENTO 
 TAMAÑO/ACTIVIDAD
SUPRARRENALES
INCREMENTO 
 TAMAÑO/ACTIVIDAD
GLÁNDULAS 
SEXUALES
REDUCCIÓN 
 TAMAÑO/ACTIVIDAD
HÍGADO
INVOLUCIÓN
PÁNCREAS
INVOLUCIÓN
RIÑON
DEGENERACIÓN
Respuestas fisiológicas y cambios orgánicos asociados al estrés psicológico

Sistemas que responden incrementando la liberación hormonal:
  1. hormonas suprarrenales
  2. tidoideas
  3. hormona del crecimiento
  4. hormonas hipofisarias
Sistemas que responden frenando la secreción hormonal:
  1. hormonas sexuales
  2. insulina
Efectos de interacción entre sistemas hormonales:
  1. las hormonas tiroideas tienden a facilitar el efecto de las catecolaminas sobre el organismo
  2. la hormona del crecimiento puede inducir efectos diabetógenos puesto que debilita la eficacia de la insulina (posiblemente alterando los receptores de esta sustancia)
Respuestas psicológicas
La principal respuesta es la de tipo emocional, Arnold (1967) asumió que la reacción del organismos bajo estrés es extraordinaria y tiene como finalidad restaurar su funcionamiento normal. Tal actividad incluye acciones dirigidas a una meta. De este modo, la emoción es activada junto a los cambios fisiológicos que caracterizan el síndrome del estrés cada vez que es psicológicamente experimentado.
La sensación subjetiva de malestar emocional (distress, strain, tensión, sensación subjetiva de tensión). El tipo de emociones que suelen acompañar a la experiencia de estrés son emociones negativas:

  1. miedo
  2. ansiedad
  3. ira
  4. depresión, etc.
En contraste con las emociones positivas que no suelen darse con el estrés:

  1. alegría
  2. placer
Las emociones acompañan o determinan los procesos del estrés (valoración de la amenaza, estrategias de afrontamiento empleadas, etc.) Se ha sugerido que los componentes asociados al estrés también pueden variar en función de la dimensión agudo/crónico:
En circunstancias de estrés agudo:
experiencia subjetiva de ansiedad/miedo
En circunstancias de estrés crónico:
estado de ánimo depresivo
Esto se ha explicado en términos de agotamiento en los mecanismos neurotransmisores del SNC (sistemas catecolaminérgicos), por haber ocurrido un estado sostenido de activación neurofisiológica durante el estrés prolongado. Esto explicaría, el paso de un síndrome de ansiedad a un cuadro de tipo depresivo.
Dentro de las respuestas psicológicas se han referido las respuestas cognitivas y conductuales como variables psicológicas importantes. 
Problemas:
Las respuestas cognitivas y conductuales que emite el organismo en estados de estrés suelen contituir modos de afrontamiento, ya que éste consiste en esfuerzos cognitivos y conductuales ante la experiencia del estrés (emocional-fisiológica).
Ciertas respuestas cognitivas consisten en formas de valoración de la amenaza.
La emoción posee componentes cognitivos y conductuales, además de la propia experiencia emocional.
La preocupación, la pérdida de control percibido y la negación son tres tipos de respuesta cognitiva de estrés señalados frecuentemente:

  1. La preocupación es un componente cognitivo de la emoción (ansiedad)
  2. La sensación de pérdida de control es una faceta de la reevaluación cognitiva 
  3. La negación es una estrategia de afrontamiento


Otras respuestas cognitivas, que más que componentes de la respuesta del estrés son resultados desadaptativos:

  1. bloqueos mentales
  2. pérdida de memoria
  3. sensación de irrealidad
  4. procesos disociativos de la mente, etc.












Anuncios

Often A Bird – Wim Mertens. Un Hombre del Renacimiento en el siglo XX. Inteligencia y Personalidad 1


Often A Bird, de Wim Mertens. Naturaleza y estructura de la Inteligencia y la Personalidad 1
¿Sabemos  qué es la Inteligencia? ¿Sabemos  qué es la Personalidad?
¿Conocemos el gato de Schrödinger?

http://www.youtube.com/watch?v=XBb3Vchh6jU
http://www.youtube.com/watch?v=XBb3Vchh6jU&feature=player_embedded
http://www.wimmertens.be/
http://www.slideshare.net/IgnacioNieto/dal-y-la-razn-area

A LA LÍNEA

di Rafael Alberti

A TI, contorno de la gracia humana,

recta, curva, bailable geometría,

delirante en la luz, caligrafía

que diluye la niebla más liviana.


A ti, sumisa cuanto más tirana,

misteriosa de flor y astronomía

imprescindible al sueño y la poesía,

urgente al curso que tu ley dimana.

A ti, bella expresión de lo distinto,

complejidad, araña, laberinto

donde se mueve presa la figura.

El infinito azul es tu palacio.

Te canta el punto ardiendo en el espacio.

A ti, andamio y sostén de la Pintura.

EL ÁNGEL DE LOS NÚMEROS
di Rafael Alberti

VÍRGENES con escuadras
y compases, velando
las celestes pizarras.

Y el ángel de los números,
pensativo, volando
del 1 al 2, del 2
al 3, del 3 al 4.

Tizas frías y esponjas
rayaban y borraban
la luz de los espacios.

Ni sol, luna, ni estrellas,
ni el repentino verde
del rayo y el relámpago,
ni el aire. Sólo nieblas.

Vírgenes sin escuadras,
sin compases, llorando.

Y en las muertas pizarras,
el ángel de los números,
sin vida, amortajado
sobre el 1 y el 2,
sobre el 3, sobre el 4…
A LA DIVINA PROPORCION (1946)
di Rafael Alberti

A TI, maravillosa disciplina,
media, extrema razón de la hermosura
que claramente acata la clausura
viva en la malla de tu ley divina.

A ti, cárcel feliz de la retina,
áurea sección, celeste cuadratura,
misteriosa fontana de mesura
que el Universo armónico origina.

A ti, mar de los sueños angulares,
flor de las cinco formas regulares,
dodecaedro azul, arco sonoro.

Luces por alas un compás ardiente.
Tu canto es una esfera transparente.
A ti, divina proporción de oro.

La definición de la inteligencia se alteró a partir del año 1935, una teoría cuántica movió las estructuras científicas, religiosas y lingüísticas. Pero, antes en 1927, en España, hubo una conjunción cósmica biológica, sin igual….

http://cedros.residencia.csic.es/docactos/5347/Programa_de_mano/Programa_de_mano05347002.pdf
http://www.residencia.csic.es/pres/historia.htm

http://www.scielo.cl/scielo.php?script=sci_arttext&pid=S0718-09341998000100009

John Melhuish Strudwick

ODA A SALVADOR DALÍ
Una rosa en el alto jardín que tú deseas. 

Una rueda en la pura sintaxis del acero. 

Desnuda la montaña de niebla impresionista. 

Los grises oteando sus balaustradas últimas.

Los pintores modernos en sus blancos estudios, 

cortan la flor aséptica de la raíz cuadrada. 

En las aguas del Sena un ice-berg de mármol 

enfría las ventanas y disipa las yedras.

El hombre pisa fuerte las calles enlosadas. 

Los cristales esquivan la magia del reflejo. 

El Gobierno ha cerrado las tiendas de perfume. 

La máquina eterniza sus compases binarios.

Una ausencia de bosques, biombos y entrecejos 

yerra por los tejados de las casas antiguas. 

El aire pulimenta su prisma sobre el mar 

y el horizonte sube como un gran acueducto.

Marineros que ignoran el vino y la penumbra, 

decapitan sirenas en los mares de plomo. 

La Noche, negra estatua de la prudencia, tiene 

el espejo redondo de la luna en su mano.

Un deseo de formas y límites nos gana. 

Viene el hombre que mira con el metro amarillo. 

Venus es una blanca naturaleza muerta 

y los coleccionistas de mariposas huyen.

                                *  *  *
Cadaqués, en el fiel del agua y la colina, 

eleva escalinatas y oculta caracolas. 

Las flautas de madera pacifican el aire. 

Un viejo dios silvestre da frutas a los niños.

Sus pescadores duermen, sin ensueño, en la arena. 

En alta mar les sirve de brújula una rosa. 

El horizonte virgen de pañuelos heridos, 

junta los grandes vidrios del pez y de la luna.

Una dura corona de blancos bergantines 

ciñe frentes amargas y cabellos de arena. 

Las sirenas convencen, pero no sugestionan, 

y salen si mostramos un vaso de agua dulce.

                                *  *  *
¡Oh, Salvador Dalí, de voz aceitunada! 

No elogio tu imperfecto pincel adolescente 

ni tu color que ronda la color de tu tiempo, 

pero alabo tus ansias de eterno limitado.

Alma higiénica, vives sobre mármoles nuevos. 

Huyes la oscura selva de formas increíbles. 

Tu fantasía llega donde llegan tus manos, 

y gozas el soneto del mar en tu ventana.

El mundo tiene sordas penumbras y desorden, 

en los primeros términos que el humano frecuenta. 

Pero ya las estrellas ocultando paisajes, 

señalan el esquema perfecto de sus órbitas.

La corriente del tiempo se remansa y ordena 

en las formas numéricas de un siglo y otro siglo. 

Y la Muerte vencida se refugia temblando 

en el círculo estrecho del minuto presente.

Al coger tu paleta, con un tiro en un ala, 

pides la luz que anima la copa del olivo. 

Ancha luz de Minerva, constructora de andamios, 

donde no cabe el sueño ni su flora inexacta.

Pides la luz antigua que se queda en la frente, 

sin bajar a la boca ni al corazón del bosque. 

Luz que temen las vides entrañables de Baco 

y la fuerza sin orden que lleva el agua curva.

Haces bien en poner banderines de aviso, 

en el límite oscuro que relumbra de noche. 

Como pintor no quieres que te ablande la forma 

el algodón cambiante de una nube imprevista.

El pez en la pecera y el pájaro en la jaula. 

No quieres inventarlos en el mar o en el viento. 

Estilizas o copias después de haber mirado, 

con honestas pupilas sus cuerpecillos ágiles.

Amas una materia definida y exacta 

donde el hongo no pueda poner su campamento. 

Amas la arquitectura que construye en lo ausente 

y admites la bandera como una simple broma.

Dice el compás de acero su corto verso elástico. 

Desconocidas islas desmiente ya la esfera. 

Dice la línea recta su vertical esfuerzo 

y los sabios cristales cantan sus geometrías.

                                *  *  *
Pero también la rosa del jardín donde vives. 

¡Siempre la rosa, siempre, norte y sur de nosotros! 

Tranquila y concentrada como una estatua ciega, 

ignorante de esfuerzos soterrados que causa.

Rosa pura que limpia de artificios y croquis 

y nos abre las alas tenues de la sonrisa 

(Mariposa clavada que medita su vuelo). 

Rosa del equilibrio sin dolores buscados. 

¡Siempre la rosa!

                                *  *  *
¡Oh, Salvador Dalí de voz aceitunada! 

Digo lo que me dicen tu persona y tus cuadros. 

No alabo tu imperfecto pincel adolescente, 

pero canto la firme dirección de tus flechas.

Canto tu bello esfuerzo de luces catalanas, 

tu amor a lo que tiene explicación posible. 

Canto tu corazón astronómico y tierno, 

de baraja francesa y sin ninguna herida.

Canto el ansia de estatua que persigues sin tregua, 

el miedo a la emoción que te aguarda en la calle. 

Canto la sirenita de la mar que te canta 

montada en bicicleta de corales y conchas.

Pero ante todo canto un común pensamiento 

que nos une en las horas oscuras y doradas. 

No es el Arte la luz que nos ciega los ojos. 

Es primero el amor, la amistad o la esgrima.

Es primero que el cuadro que paciente dibujas 

el seno de Teresa, la de cutis insomne, 

el apretado bucle de Matilde la ingrata, 

nuestra amistad pintada como un juego de oca.

Huellas dactilográficas de sangre sobre el oro, 

rayen el corazón de Cataluña eterna. 

Estrellas como puños sin halcón te relumbren, 

mientras que tu pintura y tu vida florecen.

No mires la clepsidra con alas membranosas, 

ni la dura guadaña de las alegorías. 

Viste y desnuda siempre tu pincel en el aire 

frente a la mar poblada de barcos y marinos.

Federico García Lorca

Dimensión Dalí, la historia de este pintor artístico está ligada a la historia contemporánea del constructo Inteligencia …. Dalí descubrió, analizó, investigó en pintura y en ciencia como si un Hombre del Renacimiento se tratara. Su estilo personal nos legó obras de una perturbadora fantasía. Usó el método critico paranoico inventado por el propio Dali, que ha producido muchos ensayos y críticas. Inconformista, trabajador, fantasioso, no sabía comprar el pan en la tienda, pero sabía pintarlo como nadie en la historia de la pintura y explicaba los avances científicos como pocos, fue odiado y querido a partes iguales, hasta le hicieron un “juicio surrealista”, pero él “era el tuerto en el país de los ciegos”. Su comprensión por la ciencia se plasmó en sus lienzos, le gustaba que los propios autores científicos le explicaran los proyectos que tenían entre manos. La pasión, técnica y saber hacer  que mostró en todo lo que emprendía suscitó envidias y admiraciones. Su obra le hizo inmortal, un deseo que él anhelaba con todas sus fuerzas hasta que lo consiguió.  ¿Tenía Dalí el factor “G”?
http://e-spacio.uned.es/fez/eserv.php?pid=bibliuned:Llcgv-46268896-D0B5-D4BE-D56B-B3F0A38E2858&dsID=Figuracion.pdf
http://digitool-uam.greendata.es//exlibris/dtl/d3_1/apache_media/L2V4bGlicmlzL2R0bC9kM18xL2FwYWNoZV9tZWRpYS8xNzY2.pdf
http://www.fileden.com/files/2008/12/18/2228684/DICCIONARIO%20PRIVADO%20SALVADOR%20DAL%C3%8D.pdf

Galacidalacidesoxyribonucleicacid
1963

Concepto de inteligencia
El concepto de inteligencia en el s. XX se desarrolla en paralelo a la historia contemporánea que nos ha tocado vivir. Antes nos dejaron también definiciones más o menos sofisticadas.

  1. Para Aristóteles la fuente de la diferencia entre el humano de los animales (Nous)
  2. Para Juan Huarte con su teoría multifactorial, aptitudes que interactúan
  3. Para Spencer jerarquía funcional

El concepto contemporáneo de inteligencia se basa en algo más que simples sustantivos encadenados según el poder, el movimiento religioso del momento o los movimientos culturales imperantes.
¿Qué es “ser inteligente”?
El Thesaurus propone:

  • Agudeza
  • Aptitud
  • Agilidad
  • Comprensión
  • Despabilamiento
  • Discernimiento
  • Brillante
  • Incisivo
  • Ingenio
  • Juicio
  • Penetración
  • Percepción
  • Perspicacia
  • Rapidez
  • Razonamiento
  • Sagacidad
  • Sutileza

Y siguiendo el Thesaurus “ser inteligente implica”:

  • La capacidad para adquirir y aplicar el conocimiento
  • La facultad de pensar y razonar
  • La habilidad para comprender y sacar provecho de la experiencia

Según esto la inteligencia es un bien que nos sirve para relacionarnos mejor con nuestro entorno, aprendiendo, utilizando lo aprendido, mediante la capacidad de elaborar cognitivamente lo que acontece y extraer información valiosa de la experiencia.

El hombre de Vitrubuio 
La proporción áurea
De lo que se han dado cuenta los investigadores es de analizar y comparar las concepciones implícitas de Oriente y Occidente sobre la inteligencia. Las teorías implícitas suelen ser vagas y generales, pero en el caso de la inteligencia, podría enriquecerse de las contribuciones realizadas por el análisis de este tipo de teorías de carácter lego.
Encargante:Duque Ludovico Sforza
Ubicación:refectoria de la iglesia dominica de Santa María de las Gracias (Milán)
Estilo artístico:Renacimiento
Técnica:mural ejecutado al temple y óleo sobre dos capas de preparación de yeso extendidas sobre enlucido
Estado de conservación: malo
SONETO A PITÁGORAS

Tu Teorema me enseñó a amar la Geometría
y desde ésta aprendí a adorar la Matemática
quise hacer la existencia menos enigmática
con Platón pensando entrar en la Filosofía.

Pitágoras, ayúdame a alcanzar la armonía
a que la vida sea menos problemática
siendo el estudio y el amor nuestra pragmática
concediéndonos parte de tu sabiduría
.
Apliquemos en todo tu divina proporción
no sintamos temor hacia lo inconmensurable
al transmitir estos valores en la educación
.
Tu doctrina nos enseña lo que es demostrable
Tus números y poliedros engendran percepción
Por eso tu magisterio ha sido perdurable.

Pedro Miguel González Urbaneja.
La concepción lega o implícita de la inteligencia
Las ideas que las personas tienen de la inteligencia surgen de la observación y la experiencia cotidiana de los requisitos y las demandas que el medio impone, de las conductas que las personas desarrollamos para lograr un correcto desempeño de las distintas funciones que son asignadas.
Stenberg (1999) toma como punto de partida las teorías implícitas de la inteligencia por tres motivos:
  1. Guían la forma en que las personas perciben y evalúan su propia inteligencia y la de los demás.
  2. Pueden ser recogidas para la elaboración de teoría explícitas por parte de los científicos.
  3. Las personas nos mostramos más preocupados por la cara práctica, aplicada y diaria de la inteligencia a diferencia de los científicos más preocupados por los aspectos académicos.
  4. Nos ayudan a entender el desarrollo de la inteligencia y las diferencias culturales.

Stenberg y Kaufman (1998) mostraron que en culturas orientales se incluyen cualidades no contempladas en las teorías occidentales. Aspectos como:
  • Confucionismo: la benevolencia y el hacer aquello que es correcto disfrutando del aprendizaje a o largo de la vida cotidiana.
  • Taoísmo: la humildad, la libertad de convencionalismos y el completo conocimiento del yo y del entorno.
  • Budismo e hinduismo: procesos como el despertar de la conciencia, la apercepción, el reconocimiento, la comprensión de los fenómenos, la determinación, el esfuerzo mental o el juicio correcto.

En USA se considera “inteligente”:
  • la capacidad de resolución de problemas prácticos
  • la habilidad verbal
  • competencia social 

En Zambia o Taiwan se considera “inteligente”:
  • las habilidades interpersonales
  • la capacidad de cooperación
  • responsabilidad social

http://alicante.colegioscarmelitas.es/index.php?option=com_content&view=article&id=156:dibulo-de-poligonos-con-regla-y-compas&catid=56:plastica-y-dibujo&Itemid=71

  
En 1955, Salvador Dalí (1904-1989)
 laÚltima Cena de Jesucristo con sus Apóstoles
(óleo sobre lienzo,167 x 268 cm.
National Gallery of Art – Washington)
Evolución del concepto científico de la inteligencia
Sperman (1863-1945), alumno de Wundt, fue de las primeras personas en estudiar la inteligencia. Por analogía  a la física denominó “energía mental” la definición de la naturaleza de la inteligencia. Esta energía se relacionaba con:
  1. Funcionamiento rápido y preciso
  2. ideas precursoras de la investigación en el ámbito de las bases biológicas de la inteligencia
  3. Estudio de los procesos y mecanismos de la conducta intelectual

Formuló los principios noegenéticos que son tres procesos cognitivos vinculados a las leyes de la mente creativa. Estos procesos intervienen en una de las características más importante de la mente: “la capacidad de generar conocimientos a partir de los anteriores adquiridos”.
Böring (1923) un historiador que concluyó: “la inteligencia es aquello que miden los test”. El hombre quería establecer una definición operativa que sirviera de punto de partida hasta que la ciencia permitiera profundizar en la comprensión de la naturaleza de la inteligencia.
Stenberg (1999) planteó una pregunta ¿hemos podido avanzar más allá de esta definición circular y escasamente informativa?
Según Stenberg: “la habilidad para adaptarse, moldear y seleccionar entornos” es lo que refleja la inteligencia.
¿Dónde se ve la inteligencia?
¿Cómo se obtiene la inteligencia?
¿Qué es inteligencia?
¿Cuándo se manifiesta la inteligencia?
¿Cuánto vive la inteligencia?
¿Por qué es importante la inteligencia?
En el s. XX se ha desarrollado diversas reuniones de científicos para llegar a un cierto acuerdo sobre la concepción de la inteligencia. En 1921 y en 1986 se desarrollaron dos symposium con una cuestión importante: Inteligence and ist measurement. Se puede ver la evolución entre estos dos symposium con una diferencia de 65 años.



Los principios del funcionamiento de la inteligencia según Sperman (1923)
Él plantea tres procesos cognitivos fundamentales generadores del contenido mental denominado principios noegenéticos:
  1. Aprenhensión de la experiencia: toda experiencia tiende inmediatamente a evocar el conocimiento de sus elementos y experiencias asociadas. La capacidad que tiene una persona de observar y percatarse conscientemente de sus estados internos de conciencia. Juan Espinosa (1997) nos dijo: “la persona no sólo sabe, sino que también sabe que sabe”. 
  2. Educción de relaciones: la presentación mental de dos o más elementos evoca inmediatamente el conocimiento de las relaciones existentes entre ellos. Cuando una persona tiene en mente dos o más ideas es capaz de inferir o establecer relaciones entre ellas. 
  3. Educción de correlatos: cuando una persona tiene una idea unida a una relación es capaz de generar la idea correlativa. 

Principales corrientes de estudio de las diferencias individuales en inteligencia
Los modelos teóricos existentes acerca del constructo de inteligencia pueden ser organizados para ofrecer una visión coherente del campo en función de los objetivos y métodos de investigación empleados, aquí se recogen los conceptos de inteligencia A, B y C de Hebb (1949) y Vernon y las metáforas de la inteligencia de Stenberg.
Stenberg en 1990 propuso una aproximación al estudio de la inteligencia bajo la consideración de diversas metáforas que reflejarían la forma en que dicho estudio ha sido abordado. La metáfora representa los objetivos y límites de cada modelo.
Representación de las inteligencias:
A: Biológica, evaluada a través de medidas fisiológicas
C: Psicométrica, evaluada a través de los test de CI
B: Social o Práctica índices de carácter psicosocial
La Inteligencia A, B y C

Inteligencia A: potencial innato que posee cada persona para poder aprender y adaptarse al entorno, siendo necesario para desarrollarse intelectualmente. Este potencial estaría genéticamente determinado, y básicamente mediado por la complejidad y la plasticidad del SNC, su sustrato fundamental.
Inteligencia B: manifestación de la inteligencia de las personas en su vida cotidiana. Esta concepción está más cercana a lo que se entiende por inteligencia práctica o inteligencia social
Inteligencia C: aquello que miden los test de CI, la inteligencia psicométrica evaluada a través de los programas estandarizados.
La inteligencia A y B fueron propuestas por Hebb en 1949 y la C por Vernon en 1990.
Los autores que defienden los modelos biológicos sostienen que la Inteligencia A es la inteligencia auténtica, pura, no contaminada por ningún tipo de factor externo de tipo temperamental, motivacional o cultural (Eysenck, 1986, 1987).

Según Vernon (1990) las teorías actuales sobre en inteligencia se centran en los parámetros cognitivos que diferencian a las personas, pero ninguna afronta el problema real de la imposibilidad de comprender y medir de forma apropiada la inteligencia mientras los procesos biológicos y fisiológicos, así como los mecanismos subyacentes a los mismos no sean investigados.
Stenberg, crítico con las medidas reduccionistas aboga por la Inteligencia B, en la medida en que incluyen aspectos muy relevantes para la vida cotidiana de las personas, que la inteligencia biológica e incluso la psicométrica no contemplan.
La metáfora geográfica o estructural

Con esta analogía se pretende elaborar un mapa de la mente, a partir de técnicas psicométricas. Una analogía equivalente elabora una estructura o arquitectura que pretende encontrar las dimensiones fundamentales o factores que constituyen la inteligencia y cómo están organizados configurando estructuras.
Este enfoque generará los modelos psicométricos tradicionales 
Ventajas y desventajas de la metáfora geográfica según Stenberg, 2000:

Ventajas de la metáfora geográfica:
  1. Presentar una especificación muy concreta y clara de las estructuras mentales que se proponen.
  2. Proporcionar una operativización directa de los factores propuestos a partir de los test mentales desarrollados al efecto.
  3. Disponer de una metodología cuantitativa muy sofisticada para abordar sus investigaciones.

Desventajas de la metáfora geográfica:
  1. Mostrar un énfasis insuficiente en los procesos mentales
  2. Las teorías derivadas del análisis factorial exploratorio presentan dificultades de falsación y, por tanto, no se puede probar que un modelo dado no es erróneo.
  3. La indeterminación en las posibles soluciones factoriales (según el procedimiento de rotación escogido), por lo que no se puede deducir que un modelo sea la única solución posible, dando lugar a distintas alternativas.
  4. Mantener una excesiva dependencia de las diferencias individuales (como único objeto de estudio).
  5. Mostrar una capacidad de generalización cuestionable de los resultados al tipo de inteligencia cotidiana que los individuos desarrollan.

La metáfora computacional

La mente se concibe como un ordenador y lo que interesa al investigador es poder adentrarse y conocer el funcionamiento mental interno del individuo (el equivalente al software del ordenador).

Los desarrollas de este tipos de modelas surgen en respuesta a las críticas a los modelos psicométricos clásicos y derivan de los avances en el campo de la Psicología Cognitiva, en general y del procesamiento de la información en particular, cuyo objetivo es el estudio de los procesos mentales, tanto simples como complejos.
Ventajas y desventajas de la metáfora computacional
Principales ventajas:
  1. Presentar una especificación detallada de procesos y estrategias mentales
  2. Llevar a cabo un análisis experimental de las tareas en tiempo real
  3. Disponer de una gama extensa de sofisticados recursos informáticos

Principales desventajas:

  1. Mostrar un escaso énfasis en las estructuras contempladas en el enfoque psicométrico, como fuentes de diferencias individuales.
  2. La propia comparación de la mente al funcionamiento de un ordenador es cuestionable.
  3. Las dificultades de generalización de los resultados a la vida cotidiana.
La metáfora biológica

Estos investigadores consideran que la inteligencia es el producto de un funcionamiento eficiente y rápido del cerebro. La fundamentación biológica de la inteligencia está experimentando un avance gracias a las técnicas como:
Clásicas:
Encefalograma
Potenciales evocados
Medida de velocidad de conducción neuronal
Modernas:
Tomografía de emisión de positrones
Imágenes por resonancia magnética, que escanean el funcionamiento del cerebro cuando está realizando diferentes tareas.
Ventajas y desventajas de la metáfora biológica
Principales ventajas:
  1. Permite establecer la fundamentación biológica de los procesos intelectuales.
  2. Sus procedimientos y técnicas experimentales son objetivos y precisos.
  3. Puede permitir (aunque no se tenga evidencia empírica) una evaluación libre de sesgos culturales.
Principales desventajas:
  1. Muchos de los resultados obtenidos no tienen aplicación práctica.
  2. Generalmente este procedimiento no tienen en consideración el contexto en donde la conducta se produce.
  3. Las interpretaciones causales argumentadas por los autores no pueden derivarse de los datos obtenidos.
La metáfora antropológica

Desde la analogía cultural se considera que la inteligencia es una invención cultural sin ningún tipo de identidad fuera del contexto social en la cual es concebida. No se entiende la inteligencia fuera del contexto. Esta aproximación es complementaria a la metáfora biológica  e imprescindible para el entendimiento de la inteligencia, de las diferencias individuales y grupales.
Los escasos estudios para comparar conceptos de inteligencia en distintas culturas es muy complejo, en una misma sociedad se acentúan diferentes características cognitivas. Estas diferencias se aplican a las concepciones de inteligencia y de lo que se considera adaptativo o apropiado en el sentido más amplio. Para ello la persona de un determinado contexto cultural debe sobresalir en las habilidades valoradas por el propio grupo, Se hacen evidentes las diferencias transculturales. Por ejemplo en algunas culturas se valoran las habilidades de comunicación no verbales frente a las verbales, habilidades que no están representadas en los test psicométricos clásicos, que suelen medir la inteligencia en sociedades occidentales.
Berry en 1974 propuso el denominado radicalismo cultural en sus críticas a los teóricos factorialistas por asumir una estructura universal única, derivada de datos obtenidos a través de test mentales clásicos con fuertes connotaciones culturales. El enfoque antropológico plantea un acercamiento cuyo objetivo es desentrañar el concepto de competencia cognitiva para cada cultura, dado que las características propias de cada marco ecológico y cultural potenciarán el desarrollo de aquellas capacidades necesarias y centrales para un correcto desenvolvimiento en la vida cotidiana, imposibilitando la existencia de un concepto de inteligencia universal. 
¿Quién de todas estas personas manifiesta más inteligencia?
¿Podemos afirmar rotundamente que hay algunas más inteligentes que otras?
Una postura menos extrema el Comparativismo Cultural de estudios como los llevados a cabo por el laboratorio de cognición humana comparada en 1982 pretenden demostrar que a pesar de existir ciertos niveles de generalidad entre distintos contextos, representan un fenómeno secundario al hecho manifiesto de la presencia de sistemas de organización cultural específicos y diversos, derivados de la experiencia y procesos de aprendizaje propios de cada contexto. Pero no se establecen comparaciones interesantes, de carácter condicional, que permita analizar la forma en que distintas culturas han organizado y desarrollado determinadas actividades intelectuales básicas, escritura, lectura, cálculo matemático. Critican el radicalismo cultural pues no tiene en cuenta que las culturas no permanecen aisladas, interactúan en un flujo de correspondencia dinámico y activo, de influencia mutua que es necesario considerar.

Para Berry el concepto de ecología representa el ambiente físico estricto, todas las transacciones mutuas que suceden en los organismos y los distintos ambientes, en la medida en que el nicho ecológico se constituye gracias a la ocupación, selección y modificación del entorno a cargo de los individuos que habitan en él.

La metáfora antropológica propone que la concepción de inteligencia
está en función de los valores y necesidades de cada cultura
Las premisas comunes a esta clase de aproximaciones denominadas eco-culturales podrían sintetizarse en los siguientes puntos (propuestos por el laboratorio de cognición humana comparada, 1982):
  1. El tipo de actividades culturales que pueden desarrollarse en una sociedad dada viene limitado por la ecología física en donde, aquellas, se gestan.
  2. Las distintas cultura elaboran tipos diferentes de organización social que les permite tratar con las demandas diarias y básicas de la vida que sis miembros deben afrontar.
  3. Las distintas culturas transmiten sus patrones de adaptación al entorno a los niños mediante procesos de modelamiento a través de las actividades que los adultos desarrollan para el mantenimiento de los patrones culturales característicos.
  4. Todas estas influencias, tomadas separada o conjuntamente, afectan al desarrollo de las habilidades cognitivas.
El surgimiento de los modelos contextuales ha contribuido:
  1. a considerar la inteligencia y sus dimensiones principales representan, o no, conceptos universales
  2. si las estructuras factoriales de las capacidades, y los procesos que las sustentan son, o no, los mismos en distintos entornos culturales
  3. en consecuencia, el imperativo de elaborar procedimientos de evaluación necesarios.
La síntesis de Stenberg (1982a) asume:
  1. Los defensores de los modelos como los sustentados por Eysenck (1982) o Jensen (1982a) abogan por una existencia de una capacidad universal única, susceptible de ser analizada a partir de métodos experimentales y psicofisiológicos objetivos.
  2. Posiciones detentadas por el relativismo cultural niegan la posibilidad de poder comparar de forma fidedigna la inteligencia entre los miembros de distintas culturas, basándose en la inexistencia de elementos comunes en las dimensiones que definen dicho concepto y su organización, resaltarán la necesidad de elaborar instrumentos de evaluación intrínsecos para cada cultura.
  3. Desde posiciones menos contrapuestas se gira en torno al estudio de posibles variaciones culturales de dimensiones estructurales similares, así como el desarrollo de sistemas de evaluación que permitan, llevar a cabo estudios transculturales con ciertos visos de fiabilidad.
Stenberg indica que los estudios derivados de la metáfora antropológica rescatan a la investigación en inteligencia del fuerte etnocentrismo generado por una focalización excesiva en el concepto existente en USA o Europa Occidental. Este enfoque puede aportar al estudio de las diferencias un conocimiento valioso interindividual e intergrupal.
Principales ventajas y desventajas de la metáfora antropológica
Principales ventajas:
  1. Reconocer el papel que los roles culturales tienen en la determinación de lo que constituye la conducta inteligente e, incluso, posiblemente su naturaleza.
  2. Presentar un mayor potencial para aplicar de forma trnascultural la teoría.
  3. Reconocer la necesidad de adaptar y ajustar la evaluación de la inteligencia a cada contexto cultura.
Principales desventajas:
  1. El funcionamiento cognitivo se especifica de forma imprecisa, o no se trata del todo.
  2. Las teorías, en general, adolecen de falta de detalles importantes y de elaboración.
  3. Las posiciones excesivamente extremas, que conducen a considerar que la inteligencia es algo diferente en cada cultura, carece de parsimonia.
La metáfora sistémica

Propuesta por Stenberg haciendo referencia a otros autores. La metáfora sistémica entiende que la inteligencia es un sistema complejo que integra numerosos niveles que incluyen todos los aspectos mencionados, la estructura, los procesos cognitivos y los biológicos, junto con la relación de la conducta intelectual con el contexto social en el que se desenvuelve el individuo.
Estos modelos proponen:
  1. Las ricas dinámicas entre los componentes internos del sistema
  2. El contexto (teoría triárquica de Stenberg)
  3. Existencias de inteligencias distintas (modelo de Gardner)
  4. El desarrollo de la inteligencia debe entenderse bajo una perspectiva sociobiológica en donde los procesos de interacción persona-contexto sean contemplados (modelo bioecológico de Brofenbrenner).
Principales ventajas y desventajas de la metáfora sistémica
Principales ventajas:
  1. Reconocer la multiplicidad de elementos y procesos inherentes a la inteligencia
  2. Integrar niveles múltiples de análisis
  3. La amplitud de las habilidades consideradas como integrantes de la inteligencia
Principales desventajas:
  1. La gran dificultad, aunque no imposibilidad, de poner a prueba las teorías
  2. La complejidad de las teorías propuestas siendo, menos parsimoniosas
  3. Algunas de las teorías están más desarrolladas en la extensión de los elementos que abordan, que en un análisis profundo de los mismos.
En el desarrollo de las concepciones científicas de la inteligencia, el estudio de las bases internas y externas de la conducta (organismo vs. contexto) revela nuevas vías de gran interés para un análisis de las diferencias individuales cada vez más rico y completo.Con el tiempo, las nuevas tecnologías, un examen depurado de las variables contextuales conferirán mayor validez ecológica y profundidad de análisis a los esfuerzos dirigidos a la comprensión y el entendimiento de un fenómeno tan intrincado.
Las grandes polémicas en torno a la naturaleza y estructura de la inteligencia
Corrientes en el estudio de la inteligencia 
Las polémicas fundamentales que han impulsado el estudio de la inteligencia a cuya resolución se han destinado esfuerzos y recursos:
  1. La inteligencia está basada en procesos simples o complejos
  2. La inteligencia es una o múltiple
  3. Cuál es la organización de la inteligencia
La inteligencia un conjunto de procesos simples o complejos

Galton en 1883 entendía que la inteligencia asumía la energía o la capacidad de trabajo y la sensibilidad de la persona.Asumía que a mayor sensibilidad de los órganos sensoriales, se producía un rango de información más amplio y una capacidad de respuesta superior.
Galton formuló una hipótesis sobre la asociación
entre la inteligencia y la finura en la
discriminación sensorial, no aportó ningún experimento
Galton se interesó por la evaluación de funciones cognitivas simples, utilizando variables dependientes objetivas como tiempo de reacción de los sujetos ante la presentación de diversos estímulos.
Abogó por una inteligencia basada en los procesos sensoriales simples, impulsó una línea de investigación a finales del s. XIX con los estudios de la Universidad de Columbia guiados por J. Mc. Cattell. Esta línea la continuó Spearman, influido por las tesis galtonianas y atraído por las simplicidades metodológicas de la tradición psicofísica alemana.
J. Mc. Cattell
Spearman
Esta línea no produjo los resultados esperados. El balance temprano de los resultados de las investigaciones basadas en la evaluación de procesos mentales básicos:
  1. Sharp (1899) supervisados por Titchener en Cornell
  2. Wissler (1901) supervisados por Cattell en Columbia

Sugerían:

  • Carecer de valor predictivo con respecto a variables importantes como el rendimiento académico.
Los resultados de los estudios de Wissler ejercieron una influencia posterior enorme, al representar un análisis comprehensivo de los intentos de evaluar la inteligencia a partir de los métodos propuestos por J.Mc. Cattell a los largo de 15 años, basados en las técnicas galtonianas.
Algunos autores, entre ellos Spearman, consideraron que estos dos estudios presentaban severas limitaciones metodológicas, y no se podía extraer conclusiones definitivas sobre la relación entre la inteligencia y las funciones mentales simples. Sus críticas:
  1. El estudio de Sharp: señala que es sorprendente que haya sido referente habida cuenta que en su trabajo no se aportaba ni un solo dato estadístico, estaba realizando un estudio con una muestra de tan solo 7 estudiantes, y no incluía test de habilidades sensoriales simples.
  2. El estudio de Wissler: realizado con un rango de población muy homogéneo, con la imposibilidad de alcanzar índices de correlación significativos al restringir la variabilidad de la muestra.

El relevo lo tomaría Binet, la historia se había puesto en marcha cerrando un capítulo en el estudio de la inteligencia del s XIX, abriendo el s. XX en París.

En 1904, el Ministerio de Instrucción Pública  de París encoargó una comisión de expertos en la elaboración de una batería de instrumentos que permitiera detectar a los niños que presentaban problemas de retraso mental. A. Binet y T. Simon serían los principales responsables. 

Alfred Binet
Théodore Simon
Binet apoyaba una concepción de la naturaleza de la inteligencia muy diferente a Galton, Cattell o Sperarman. Consideraba que el tipo de test empleados por estos investigadores era una pérdida de tiempo (estudiaban los procesos de discriminación sensorial).
En 1905 Binet asumió que la inteligencia residía en los procesos mentales superiores y se manifestaba a través de la capacidad de:
  1. juzgar
  2. comprender
  3. razonar
La elaboración de las escalas mentales de Binet y Simon fueron planteadas en estos términos. En 1905 surgió la primera escala. Tyler (1975) propone que el papel decisivo que la instauración de la educación obligatoria jugó en estos momentos, el tremendo esfuerzo que esto supuso con el incremento de las demandas sociales de pruebas de inteligencia fiables.
Este movimiento iniciado con Binet y Simon, desembocaría en Stern en uno de los conceptos de mayor trascendencia social el cociente intelectual CI como indicador universal y global de la capacidad intelectual de una persona, origen de algunas de las polémicas más controvertidas en lo sucesivo.

En 1939 David Wechsler (1896-1981), presentó en su escala de inteligencia para adultos el Cociente intelectual de desviación. En este caso la dispersión del rendimiento en torno al valor promedio del grupo de edad al que un sujeto pertenece, es el punto de partida para estimar su CI. Los cocientes intelectuales son relativos a la distribución que presente el grupo de edad al que cada persona pertenezca. La fórmula estandarizada de Weschler permite comparar los resultados con el orden de magnitud de las escalas de Binet. 

El ámbito de la inteligencia psicométrica tendrá su máximo representante en el CI, punto de partida de un sin fin de investigaciones destinadas a evaluar:
  1. propiedades
  2. estructura
  3. origen
  4. desarrollo
  5. principales correlatos

Pero no su funcionamiento desde una vertiente procesual

El triunfo de Binet y Simon fue encontrar una medida práctica de las habilidades mentales humanas diferenciándose, no obstante, de la búsqueda de los mecanismos explicativos de las diferencias individuales impulsada por Spearman.

Durante mucho tiempo la atención hacia los productos, más que hacia los procesos subyacentes a la actividad intelectual, generará descripciones acerca de las características del constructo objeto de estudio. Medida y clasificación a partir de las puntuaciones recogidas en las baterías de test diseñadas al respecto.



Eysenck (1987) dedujo que la batalla entre procesos simples o procesos complejos la ganó Binet. La utilidad social de la inteligencia académica o psicométrica, de cara a la escuela o a la selección de personal en diversas áreas, se hará evidente en la predicción del rendimiento. 
David Wechsler
Desde los planteamiento de la nueva Psicología Cognitiva se propone que el rendimiento de las personas está mediado por una secuencia de procesos básicos que consumen un tiempo determinado:
  1. codificación perceptual del estímulo
  2. recuperación almacenada en la memoria
  3. toma de decisiones basada en dicha información
  4. preparación de la respuesta adecuada
Estos procesos (y no el producto) son lo que deben ser analizados en el estudio de la inteligencia.
El espíritu de Galton hace acto de presencia con la estrategia de investigación denominada “cronometría mental”, tomando auge en los cognitivistas. En dichas investigaciones el CI y sus distintas manifestaciones es utilizado como valor de contraste para la estimación científica de los resultados obtenidos.

Stenberg (1990) considera que las ideas de Binet pueden ser consideradas como predecesoras de aquellas teorías cognitivas que resaltan la importancia:
  1. Las metacogniciones humanas (cogniciones conscientes acerca del pensamiento propio), y por tanto, modelos teóricos bajo el paradigma del procesamiento  de la información
Binet y Simon (1916) distinguieron tres funciones importantes del intelecto:
  1. Dirección: conocimiento de qué debe ser hecho u cómo realizarlo
  2. Adaptación: selección y automatización de las estrategias personales durante la realización de una tarea
  3. Control: habilidad de crítica de los propios pensamientos y acciones
Los científicos actualmente estiman que tanto los procesos simples, como los superiores, pueden ser decisivos para un correcto entendimiento de la naturaleza de la inteligencia.

La inteligencia: constructo de carácter unitario o múltiple

Galton y Binet apuntan las posiciones extremas de esta controversia.
  1. Galton: concebía la inteligencia como un atributo o facultad unitario relativo a la capacidad cognitiva general de una persona, y distinguible de sus tendencias motivacionales y emocionales.
  2. Binet: defendía que la inteligencia es una capacidad global multidimensional por naturaleza y presenta múltiples facetas (no estrictamente cognitivas) que deben ser evaluadas dando lugar a un índice promedio de un amplio número de facultades distintas.
Spearman (1904)  reconocía que las correlaciones no determinan causalidad, pero pretendía encontrar a través de los desarrollos matemáticos del análisis factorial la “causa subyacente y oculta de las variaciones entre los individuos en el funcionamiento mental”, o “el factor común principal de la mente”, una estructura coherente y simplificada de la realidad. La naturaleza de este principio general sería en estos primeros momentos de carácter ambiguo, más cercana a la discriminación sensorial galtoniana.

Binet apreciaba la complejidad idiográfica, y manifiesta que la noción de inteligencia única propuesta por Spearman era un error porque dos individuos podrían obtener la misma puntuación a través de conocimientos y habilidades bastante diferentes.

1909 el factorialista Burt prestaba su apoyo con sus estudios a las ideas de Spearman, por otra parte se enfatizaba  al mismo  tiempo bajo la influencia de Binet y Simon, el estudio de los procesos cognitivos superiores. Burt defendía que el fenómeno de covariación no representaba simplemente una propiedad general de discriminación sensorial, sino un factor común de orden superior subyacente a aquel tipo de pruebas que impliquen procesos superiores:
  1. pensamiento lógico
  2. razonamiento
  3. juicio
Spearman (1914) acogió las sugerencias de Burt dando nombre a lo que sería conocido simplemente como “g”. Este factor común o “g”, actúa en todos los procesos de rendimiento mental, si bien de forma más pura en aquellos tests que demandan funciones cognitivas superiores.

Bajo esta perspectiva psicométrica el “g” o factor de inteligencia general, representa a partir de Spearman aquel factor de orden superior que subyace a la realización de cualquier tarea de tipo intelectual y que es obtenido a través de procedimientos estadísticos.

Las críticas al “g” psicométrico se han sucedido ante la dificultad de llegar a un entendimiento de la naturaleza y funcionamiento del mismo a partir de procedimientos estadísticos. Spearman (1927) afirmaba que conocemos el lugar de “g” pero no su naturaleza, a partir de las conclusiones derivadas de las técnicas matemáticas. 

Para algunos defensores de la existencia de “g”, la naturaleza de éste tipo de inteligencia general es biológica y no responde a un artefacto estadístico sino a una realidad de la naturaleza susceptible de ser evaluada objetivamente a partir de parámetros biológicos:
  1. Eysenck, 1982
  2. Jensen, 1982a
  3. Vernon, 1991
Bajo esta perspectiva el factor “g” presenta:
  1. un fuerte componente hereditario 
  2. es concebido como una medida global de la eficiencia neural de la persona
  3. una propiedad del SNC caracterizada por una transmisión de la información a través del cortex libre de errores
  4. se traduce en una velocidad y precisión de respuestas superiores
  5. eficacia de rendimiento mayor

Eysenck, 1982, 1985a, Vernon, 1989ab, 1990

Razones principales para la defensa de “g”:
  1. La manifestación universal de un fenómeno de covariación positiva entre todos los tests de inteligencia. Este factor da cuenta del mayor porcentaje de varianza explicada del rendimiento en una amplia variedad de pruebas.
  2. Cumplir el criterio científico de parsimonia en la explicación de los fenómenos
  3. Representar a nivel científico una definición operativa de la inteligencia que presenta, al mismo tiempo, una gran utilidad práctica.
  4. Ser la fuente de diferencias individuales más amplia en todas aquellas actividades cognitivas que suponen un cierto grado de complejidad mental y una escasa automatización de las demandas de ejecución.
  5. Presentar una estabilidad temporal notable. Haber demostrado una considerable validez predictiva en el ámbito académico laboral.
  6. Tener relación con otras variables objetivas (e independientes del análisis factorial). Tal es el caso de algunas variables psicofisiológicas relevantes o de los estudios sobre cronometría mental. 
Esta concepción de la naturaleza de “g” supone una vuelta a la concepción biológica de Galton y a la utilización de pruebas simples como el tiempo de reacción.
Pelegrino (1986) asume que desde los conocimientos actuales del procesamiento de la información, y sus procesos básicos, no podemos afirmar la existencia de un elemento único o central a la cognición humana. En un aspecto de la cognición si que parece importante: los procesos de control, en la medida que éstos representan las funciones ejecutivas involucradas en la selección, organización y monitorización de los demás procesos. Desde los modelos del procesamiento de la información se hablará de “niveles de g”. Los principales representantes de este acercamiento describen un tipo de funcionamiento de carácter ejecutivo y efectos secundarios. (Detterman, Stenberg y Gadner).

Stenberg postula la existencia de metacomponentes o procesos de control de nivel superior encargados de realizar aquellas funciones ejecutivas, de planificación y toma de decisiones que son comunes a toda tarea que implique un comportamiento inteligente. Estos elementos de la cognición humana son responsables de la aparición de un factor general de inteligencia en los tests de capacidad mental clásicos: Comprender la naturaleza de dicho principio general.

Parece que muchos expertos en inteligencia humana postulan y defienden la existencia de un constructo relativo a una inteligencia general de algún tipo de está presente en la realización de cualquier tarea cognitiva (especialmente de orden superior), y en la todos los seres humanos difieren. Este constructo presenta una gran significación teórica y práctica.

Thordinke criticó la postura de Spearman proponiendo desde un marco de referencia experimental, la existencia de una serie de habilidades especiales, distintas e independientes, que no justificaban la necesidad de recurrir a “g”. Dando impulso a las concepciones multidisciplinares posteriores.

Thurstone (1938) representa el primer intento sistemático de análisis de medidas independientes de “g”. a partir de la utilización de métodos multifactoriales defendió la existencia de una serie de capacidades independientes denominadas aptitudes mentales primarias. Desarrolla el método del análisis factorial múltiple y de la rotación hasta la estructura simple. Esta estructura maximiza la independencia de los factores obtenidos, mostrando que la inteligencia de un individuo también podría se descrita a través de un perfil de habilidades distintas formado por el grado de relieve mostrado en cada una de las capacidades. Esta existencia de factores primarios, diversos y autónomos, no facilitaba la consideración y el cálculo de una inteligencia general.

Guilford (1956) desarrolló un modelo de inteligencia ambicioso y exhaustivo compuesto por 120 aptitudes distintas, que representan el mismo rango de generalidad. En este modelo tampoco tiene cabida un factor general de carácter único.

Gadner (1983) postula un sistema de inteligencias distintas e independientes y de igual nivel de importancia, ha descrito hasta 9. Contempla un conjunto de facultades de carácter amplio y universal. El modelo de Gadner no utiliza e análisis factorial, estima que las medidas psicométricas tradicionales pueden revelar la existencia de un factor general, pero que el estrecho abanico de posibilidades que este tipo de medidas contempla, limita notablemente el valor explicativo y predictivo de g, por lo que Gadner desarrolla procedimientos de evaluación ajustados a su modelo.

Bajo la perspectiva del procesamiento de información otros investigadores consideran, bajo una óptica puramente funcional:
  1. Es posible caracterizar a un sistema mediante un indicador global
  2. Que no dice nada de la estructura subyacente o las partes del sistema
Detterman (1986) define la inteligencia como un conjunto de habilidades independientes operando en un sistema complejo, abogando por una mayor comprensión empírica de las parámetros primarios del sistema de procesamiento de la información, así como del desarrollo de medidas de carácter molecular más precisas, antes de pasar al estudio de funciones y elementos de nivel superior como los metacomponentes.

Desde el punto de vista antropológico los esfuerzos se dirigen a encontrar lo que podría denominarse una competencia cognitiva universal, para entenderla y distinguirla de la inteligencia bajo los modelos psicológicos básicos (Berry 1984). Goldschmidt (1966) sugiere que la investigación debe encaminarse al enunciado de equivalencias funcionales entre fenómenos en la medida en que éstas posibilitarían una comparación correcta de manifestaciones locales originando, de este modo una base de datos acumulativa para el desarrollo de los llamados universales.

Las contribuciones psicométricas no permiten ir más allá de la descripción de “g”, permaneciendo al margen de la comprensión de su naturaleza funcional o de un análisis causal de la misma. La Psicología Cognitiva a partir del análisis del rendimiento en tareas vinculadas al paradigma del procesamiento de la información busca el análisis causal de la misma. Este tipo de investigaciones pretende abordar el estudio empírico de “g” bajo la terminología y planteamientos diferentes: ¿Existe un proceso único subyacente a la manifestación del “g” psicométrico, o puede entenderse que su naturaleza responde a un conjunto de procesos independientes? (Detterman, 1986, 1987). 


Los trabajos de Kranzler y Jensen (1991) concluyen que la naturaleza de “g” no es unitaria, sino refleja, contribuyen  independiente  cuatro componentes cognitivos. Estas conclusiones acerca de la naturaleza cognitiva de “g” no están exentas de críticas metodológicas, polémicas, y réplicas a favor del carácter parsimonioso y útil del “g” único. Nada es aún definitivo en este ámbito.

Razones para un acercamiento entre las concepciones unitarias y múltiples de la inteligencia
¿Posturas irreconciliables?
En lo referente a los modelos psicométricos, el tiempo ha confirmado que en  estas posturas encontradas no son en modo alguno definitivas, ni siquiera por parte de aquellos que las esgrimieron. Las razones fundamentales para defender esta conclusión:
Spearman y Thurstone llegaron a aproximar posturas. Spearman (1927) reconoció la  existencia de los denominados factores de grupo, colaboró con Holzinger en el desarrollo de una teoría que abarcara, tanto factores más específicos, como el factor “g”. Thurstone admitió la posibilidad de la existencia de correlaciones entre sus capacidades primarias, representadas por factores de primer orden, potenciando procedimientos metodológicos destinados a la búsqueda de factores  de orden superior, más amplios y generales (como la rotación factorial oblicua), y a la obtención de la denominada estructura simple.


Thurstone obtuvo un factor tentativamente interpretado como el segundo orden (podría ser catalogado como razonamiento inductivo), cuya similaridad con “g” debía ser validada empíricamente a partir de otros estudios (Thurstone,1941).


Guilford ha reconocido el peso de la evidencia existente a favor de una interpretación diferente de las capacidades humanas, en donde factores de orden superior tengan cabida, interpretándose que los factores pueden ser psicológicamente dependientes (Guilford 1980, 1981, 1982).


Cuando el investigador toma la decisión acerca de si utilizar rotación de ejes o no, y el tipo de rotación (ortogonal u oblicua) a utilizar en el análisis matemático de sus datos, marca decisivamente el modelo final planteado al impedir o facilitar la relación entre los factores obtenidos, respectivamente. La posibilidad de extraer factores de oreden superior y por tanto llegar a “g” a través de la rotación oblicua, permite aproximar posturas y desarrollar modelos integradores.


Por estas razones muchos autores defienden que todos los datos factoriales son finalmente compatibles pudiendo formar parte de un continuo heterogéneo y jerárquico (Yela, 1976), como muestra el modelo más reciente, de carácter comprehensivo, de Carroll (1993).

La organización de la conducta inteligente
¿Qué organización subyace a la conducta inteligente? H. Spencer (1855) postuló un modelo jerárquico de la inteligencia de carácter funcional. Verster (1987) pensaba que Binet y Simon (1916a) se decantaban por una inteligencia constituida por procesos mentales de complejidad creciente, organizados en una estructura jerárquica que va configurándose (a diferencia de las ideas genetistas de Galton), a partir de la adaptación progresiva del niño a las demandas de su entorno, con el consiguiente beneficio obtenido por las oportunidades ambientales y el aprendizaje en el desarrollo.


Dentro de la tradición psicométrica el modelo de Burt (1949), representa el primer planteamiento teórico formal a favor de un ordenamiento jerárquico de la inteligencia. Bajo la influencia del modelo de Spencer, y de la importancia de los procesos superiores defendida por Binet u Simon, Burt defenderá que la inteligencia exhibe una estructura jerárquica de carácter funcional, con una serie de factores de grupo situados en niveles sucesivos de generalidad intermedia entre los factores específicos y “g”.


Los modelos factoriales derivados de los modelos de rotación oblicua permitirán plasmar matemáticamente este ordenamiento jerárquico a partir de una factorialización sucesiva de factores covariantes, y la obtención de nuevos factores de orden superior. De esta forma surgirán los modelos jerárquicos más importantes. Estos habrán de solventar la dicotomía unicidad/multiplicidad, al establecer que la inteligencia se caracteriza por presentar niveles de complejidad creciente entre un número relativamente elevado de factores específicos, un número más reducido de los denominados factores de grupo y la existencia de un factor global o general “g”, en el nivel superior. Modelos que logran flexibilizar el estudio de la inteligencia. Teorías jerárquicas como las de Vernon (1950, 1961), Cattell (1971), Horn (1978) o las recientes y complejas como la de Royce (1979) son valiosas aportaciones a este campo.


Carroll (1993) muestra que toda la investigación realizada se integra perfectamente en una jerarquía piramidal en la cual, la parte superior de la pirámide equivaldría al “g” de Spearman, el nivel medio estaría representado por 8 habilidades de carácter amplio y la base de la pirámide por un extenso número de habilidades específicas.


Stenberg (1986) indica que esta naturaleza jerárquica de la inteligencia ha sido reconocida prácticamente por todas las escuelas del pensamiento, incluyendo las psicométricas, las cognitivas, o las de desarrollo.


Stenberg señala que la inteligencia corresponde a una forma de auto-gobierno mental. Esta analogía de la inteligencia como forma de gobierno se remonta a Spearman (1927) quien sugirió que podían defenderse tres tipos de gobiernos mentales:

  1. sistemas monárquicos (factor “g” exclusivamente)
  2. sistemas oligárquicos (un número pequeño de habilidades)
  3. sistemas anárquicos (ningún tipo de organización) 
Stenberg (1985b) propone en su teoría triádica un modelo de oligarquía federada regida por los metacomponentes, o procesos ejecutivos encargados de los procesos de planificación, monitorización y evaluación, así como de la activación de aquellos componentes de orden inferior que ponen en marcha y ejecutan la dictaminado por los metacomponentes, En este sistema, algunas de las diferencias individuales más importantes surgirán, precisamente, a partir de la manifestación de distintas formas de autogobierno-mental.

Detterman (1986) propone un modelo que asemeja el funcionamiento de la inteligencia al de una universidad. El sistema es una organización compleja integrada por unidades independientes cuya aportación debe ser convenientemente analizada.

La jerarquía mental representa una organización flexible, sin una determinación absoluta del número o la naturaleza de las aptitudes o elementos que la integran (Carroll 1976). Esto implica que algunos factores o componentes (según del modelo teórico de donde partamos) son más generales que otros, presentando una estructura de árbol en donde cada nódulo domina sobre un conjunto específico de habilidades, o procesos, de orden inferior (Carroll, 1987).


El énfasis en los niveles específicos, intermedios o generales de la jerarquía, responda más a criterios instrumentales o funcionales de investigación que a la negación de la existencia de alguno de estos niveles, o de la importancia de los mismos para el funcionamiento global del sistema. Yela nos dice:

”  La inletigencia es una, pero no una aptitud. Su unidad es la de una estructura compleja de múltiples aptitudes covariantes, integradas en una jerarquía dinámica, a lo que parece y desde el punto de vista empírico, ilimitadamente divisible, según expresa la teoría del continuo heterogéneo y jerárquico”.

Qué conocemos, y que desconocemos de la inteligencia en la actualidad
Hernstein y Murray (1994) realizaron un trabajo que movilizó a la comunidad científica desde muy diversos frentes. http://www.catedras.fsoc.uba.ar/pegoraro/Materiales/TheBellCurve.PDF

  1. Un primer informe firmado por 50 expertos internacionales, publicado en el Wall Street Journal en 1994 y sus conclusiones avalan los resultados obtenidos por la investigación en el campo de la inteligencia C, inteligencia psicométrica, especialmente en lo referente al CI.
  2. Un segundo informe pretendió dar respuesta a la pregunta sobre lo que conocemos u desconocemos de la inteligencia en la actualidad. La junta directiva encargada de los acontecimientos científicos de la APA, (Board of Scientific Affairs, BSA), encargó la realización urgente de un balance actualizado acerco de lo que la investigación en inteligencia había logrado descifrar y lo que aún se desconocía en ese momento. En este informe todas las posturas debían quedar reflejadas para poder ser utilizadas como base para un debate científico (y no político). El trabajo realizado se publicó en la revista American Psychologist en 1996, por el interés del mismo y la amplia visión que proporciona, es recomendable su lectura.

Y el sueño americano se despertó

El informe de la APA lleva a cabo una extensa revisión de los tópicos fundamentales de la investigación en inteligencia. Su interés estriba en que suscita ciertas puntos de reflexión o matices sobre las aparentemente incuestionables conclusiones publicadas en el informe previo de los 50 expertos. En relación con la naturaleza de la inteligencia y los logros obtenidos por las distintas aproximaciones al estudio de la misma, el informe señala que hay muchas formas de ser inteligente, y también muchas concepciones distintas de la inteligencia. No obstante, de todas las aproximaciones, la perspectiva psicométrica, y la evaluación de la inteligencia que propone a través del uso de test estandarizados para medir habilidades específicas, han generado la investigación más sistemática del área, si bien hay que puntualizar que muchas cuestiones permanecen aún sin responder. Y son estas reflexiones, y los matices que comportan, los que inciden sobre el interés especial de este informe.

“Corriente principal sobre la inteligencia: evidencia sobre el CI y su evaluación”

A raíz de la polémica publicación de Hernnstein y Murray, “The Bell Curve”, 50 profesores de Universidades de EE.UU., Canadá y Gran Bretaña firmaron un escrito publicado en Wall Street Journal.
Este documento subraya las conclusiones principales de los investigadores en inteligencia más importantes sobre aspectos centrales de este campo y sobre la naturaleza, orígenes y consecuencias prácticas de las diferencias individuales y de grupo en inteligencia. El documento apoya la evidencia relativa al CI y su medida a través de test psicométricos en la población norteamericana, por lo que es susceptible de puntualizaciones por autores menos cercanos a este tipo de perspectiva.

Significado y medida de la inteligencia.

  1. La inteligencia es una capacidad mental muy general, que implica la habilidad de razonar, planificar, resolver problemas, pensar abstractamente, comprender ideas complejas, aprender con rapidez y aprender de la experiencia. No supone el mero aprendizaje de un texto, una habilidad académica específica, refleja una capacidad amplia y profunda para la comprensión del entorno, para ser capaz de capturar el significado de las cosas y darles un sentido, o para ingeniárselas a la hora de saber qué hacer.
  2. La inteligencia, puede ser medida, y los tests de inteligencia la miden correctamente.
  3. Si bien existen distintos tipos de tests de inteligencia, todos ellos miden la misma inteligencia.
  4. La distribución de las personas a lo largo del continuum del CI, desde los niveles bajos a los altos, puede ser correctamente representado por la curva de campana.
  5. Los tests de inteligencia no están culturalmente sesgados de forma que perjudiquen a los americanos de color, o a otros nativos angloparlantes en los EE.UU. Las puntuaciones en CI predicen con la misma precisión para todos los americanos.
  6. Los procesos cerebrales que subyacen a la inteligencia se conocen poco aún. La investigación actual busca, por ejemplo, en la velocidad de transmisión neural, el gasto de glucosa y la actividad eléctrica del cerebro.

Importancia práctica.

  1. El CI se relaciona notablemente con numerosos eventos educacionales, ocupacionales, económicos y sociales importantes.
  2. Un CI alto es una ventaja en la vida porque prácticamente todas las actividades requieren en alguna medida de razonamiento y toma de decisiones. Inversamente, un CI bajo es a menudo una desventaja, especialmente en entornos desorganizados.
  3. La ventaja práctica de poseer un mayor CI se incrementa en la media en que la vida se vuelve más compleja.
  4. Las diferencias en inteligencia no son, ciertamente, los únicos factores que afectan el rendimiento en la educación, el entrenamiento y en trabajos altamente complejos, pero la inteligencia es a menudo la más importante.
  5. Ciertos rasgos de personalidad, especialmente talentos, aptitudes, capacidades físicas, experiencia, etc. Son importante para un rendimiento satisfactorio en muchos trabajos, pero tienen una aplicabilidad más reducida y una capacidad de generalización menor, a través de las tareas y contextos, en comparación con la inteligencia general.

Entre los expertos que han firmado esta declaración se encuentran:

  1. J. B. Carroll
  2. R. B. Cattell
  3. D. K. Detterman
  4. H. J. Eysenck
  5. J. M. Horn
  6. L. G. Humphreya
  7. J. C. Loehlin
  8. D. Lubinsky
  9. R. Plomin
  10. S. Scarr
  11. R. M. Thorndike
  12. P. A. Vernon, entre otros
Los expertos se pronunciaron de la siguiente manera:

“Casi un siglo de investigación la mayor parte basada en métodos psicométricos, ha producido un impresionante cúmulo de hallazgos….” “una de nuestras funciones de mayor utilidad puede ser recordar a los lectores que muchas de las cuestiones críticas acerca de la inteligencia permanecen aún sin responder”.

  1. Las puntuaciones en los test de inteligencia predicen parcialmente diferencias individuales en logro escolar tales como la puntuación escolar media, y el número de años de educación que la persona completa. en este contexto, las habilidades medidas son importantes. Se matiza que en general las tests de inteligencia miden sólo alguna de las muchas características personales relevantes para la vida en la América contemporánea. Estas características nunca son la única influencia sobre los resultados, aunque en el caso del rendimiento escolar pueden ser principales. Los niveles poblacionales de logro académico no están determinados por la inteligencia o cualquier otra variable diferencial humana individual. El hecho de que los niños en Japón o en Taiwan aprendan muchas más matemáticas que sus compañeros americanos puede ser atribuido a diferencias culturales y de escolarización, más que a las habilidades medidas por los test de inteligencia.
  2. Las puntuaciones en los test también correlacionan con medidas de logro fuera del colegio, por ejemplo el estatus ocupacional del adulto. Esta correlación está vinculada al logro porque en USA hoy, puntuaciones elevadas en los test, así como tener puntuaciones académicas elevadas, son prerrequisitos para entrar en muchas carreras y profesiones. La correlación significativa entre las puntuaciones en los test y el estatus ocupacional se mantiene incluso cuando los antecedentes educativos y familiares se han controlado estadísticamente.
  3. Existen correlaciones significativas entre las medidas de la velocidad de procesamiento de la información y la inteligencia psicométrica, pero el patrón general de estos descubrimientos no arroja interpretaciones teóricas fáciles.
  4. Existe un amplio consenso en que los test estandarizados no muestran todas las formas de inteligencia: creatividad, sabiduría, el sentido práctico, y la sensibilidad social, seguramente hay más. A pesar de la importancia de estas habilidades, conocemos muy poco acerca de las mismas: cómo se desarrollan, qué factores influyen sobre su desarrollo, y cómo se relacionan con las medidas más tradicionales.
Las cuestiones que quedan por resolver son social y científicamente importantes:

“El tono de seguridad que ha caracterizado la mayor parte del debate sobre estos tópicos está claramente fuera de lugar”…”no hay razón para pensar que no tienen respuesta, pero encontrar las respuestas requerirá un esfuerzo compartido y sostenido, así como el compromiso de recursos científicos sustanciales. Justamente este tipo de compromiso es el que recomendamos encarecidamente”.

Si bien es verdad que se ha avanzado en la comprensión de lo que es la inteligencia, aún quedan demasiadas cuestiones por dilucidar como para que nadie se arrogue la verdad absoluta en este campo. Cada vez se hace más evidente la necesidad de un trabajo conjunto, en la medida en que “ser inteligente” es sin duda más que cada una de las aportaciones de las distintas aproximaciones por separado.


Propuesta de una definición integradora de la inteligencia
Sánchez-Elvira (1996) propuso una definición basada en el balance de las definiciones elaboradas por un numeroso grupo de expertos en el tema, y en la que se señala que la naturaleza de la conducta inteligente es propositiva o encaminada hacia un fin, la adaptación a las demandas del entorno, sustentándose, básicamente, en:

  1. Los procesos superiores que dirigen y coordinan dicha conducta
  2. Los procesos elementales que contribuyen a configurar y producir sus manifestaciones
  3. Las bases biológicas que subyacen y posibilitan la actividad mental
  4. Las bases socio-culturales en las que el individuo se desarrolla en un momento histórico concreto
  5. Las transacciones recíprocas con el contexto, en la medida en que el individuo no es un ente sometido de forma pasiva a la influencia del entorno sino que, en aquellos niveles contextuales más próximos a la manifestación de la conducta, puede actuar de forma activa, bien eligiendo el tipo de situaciones y ambientes en los que quiere desarrollar sus actividades, bien transformando las características de los mismos.

El conocimiento de este núcleo permitirá:

  1. Entender el origen y la naturaleza de las diferencias individuales en inteligencia, agrupados en torno a dimensiones o constructos psicológicos relevantes como los identificados por los factorialistas y por los investigadores de los procesos cognitivos, conocer el repertorio completo de conocimientos, destrezas y estrategias cognitivas que caracterizan a una persona.
  2. Aplicar este conocimiento a la predicción del rendimiento y a su mejora mediante la intervención sobre las bases funcionales que lo sustentan. El objetivo último será propiciar una adaptación más positiva de la persona a su entorno, y un mayor desarrollo de su potencial.

Principales modelos estructurales de la inteligencia

Stenberg ya nos comentó que bajo la denominada metáfora geográfica se pretende elaborar un mapa de la mente, otra analogía equivalente escoge la elaboración de la estructura o arquitectura de la inteligencia como imagen representativa del objetivo prioritario de este tipo de aproximaciones.
Este enfoque estructural ha guiado los estudios durante buen parte del s. XX hasta los años 60, que salieron otras alternativas empíricas. El estudio de la disposición estructural de la inteligencia generó los modelos psicométricos tradicionales vinculados al estudio diferencialista. Bajo dicha metáfora se elaboraron los denominados “modelos estructurales” de la inteligencia.
En la aproximación inicial al conocimiento de cualquier fenómeno, el primer paso es establecer una descripción necesaria, lo más certera posible del mismo. El objetivo principal de los modelos estructurales:

  • La descripción de la inteligencia humana
  • La elaboración de sistemas taxonómicos del rendimiento cognitivo en función de las diferencias individuales encontradas

Para alcanzar estos objetivos se ha dilucidado:

  1. ¿Cuáles y cuántas son las habilidades a lo largo de las cuáles las persona pueden diferir?
  2. ¿Qué estructura presenta el conjunto de dichas habilidades? ¿qué configuración se deduce de las mismas? (Stenberg, 1985b; Yela 1976).

Estas cuestiones hacen referencia a dos tópicos fundamentales y dentro de esta aproximación cobran una importancia mayor.
El estudio de la estructura de la inteligencia a nivel de rasgo se ha realizado fundamentalmente a partir de una herramienta estadístico-matemática denominada “Análisis Factorial Exploratorio”, esta técnica extrae las dimensiones o factores que subyacen a las interrelaciones entre un elevado número de variables observadas. Pretende extraer la variación conjunta que tiene en común las variables observadas con la mínima pérdida de información. En este sentido, la inteligencia, al ser un constructo complejo que no puede observarse directamente, puede inferirse a partir del análisis factorial exploratorio del rendimiento cognitivo. Algunas de las cuestiones que se tratan de responder mediante esta técnica son el número de capacidades que existen, cómo se organizan, etc.


Principales estructuras de organización de la inteligencia
Con respecto al número de factores, las propuestas discurren entre las dos posturas  propuestas por Spearman y Thurstone:

  •  “unicidad o multiplicidad”, “unidimensional o multidimensionalidad”.

Con respecto al número de factores:
1927 Spearman postuló “La Teoría de los dos factores” o modelo general de la inteligencia, a favor de un factor único  de inteligencia general y múltiples factores de carácter irrelevante y específico para cada una de las tareas. Unicidad o unidimensional. Modelo psicométrico.
1938 Thurstone postuló el “Modelo de habilidades primarias” múltiples e independientes. Multiplicidad o multidimensionalidad. 

Con respecto a la estructura que configuran los factores: 

  • Los psicólogos diferencialistas consideran que la inteligencia es de naturaleza jerárquica.

En el recuadro de abajo se esquematizan las diferentes concepciones estructurales de la inteligencia.


Requisitos necesarios para el estudio de la estructura de la inteligencia desde un enfoque psicométrico
Para dar respuesta a sus objetivos, los expertos en el estudio de la estructura de la inteligencia han procurado cubrir los pasos siguientes:

  1. Elaborar baterías de test de muy diversas características, con una validez interna adecuada, destinadas a cubrir todas las áreas relevantes de las capacidades humanas.
  2. Disponer de muestras amplias, representativas y heterogéneas, de sujetos, a quienes aplicar dichas baterías, objetivo no siempre alcanzado.
  3. Desarrollar procedimientos estadísticos que permitan el análisis de un gran número de datos y la extracción de resultados parsimoniosos y psicológicamente relevantes, metodología multivariada y análisis factorial.
  4. Procurar un ajuste adecuado entre los modelos postulados y los datos obtenidos.
  5. Validar externamente las teorías a partir de correlatos significativos.

Modelos factoriales no jerárquicos de la inteligencia
a) Un modelo de inteligencia general: el modelo de Spearman
Ch. Spearman se inspiró en las ideas de Galton, sobre todo en su concepción de la inteligencia entendida como una facultad unitaria referida a la capacidad cognitiva general del individuo. El legado de Spearman se dejó notar en el ámbito de la psicología de las diferencias individuales y en la estadística-matemática, inventó:

  1. La rho de Spearman (coeficiente de correlación actualmente denominado) para medir la relación entre dos variables ordinales o entre dates de intervalo en los que no se satisface el supuesto de normalidad
  2. El coeficiente de fiabilidad de Spearman-Bronw
  3. El análisis factorial, desarrollado a partir de las diferencias tretrádicas 
En el estudio de la estructura de la inteligencia y de la personalidad se realiza fundamentalmente a partir del análisis factorial, Spearman es considerado merecidamente el padre del estudio factorialista de la inteligencia, además de ser el padre del estudio de la inteligencia desde la perspectiva aptitudinal (estructural) como procesual. 
Descubrió que al administrar diferentes pruebas de inteligencia a una muestra de sujetos, todas ellas correlacionaban positivamente entre sí, aunque con diferente magnitud o grado de correlación. Esto le llevó a considerar que en cualquier test de inteligencia existe:

  1. Un componente general, inferido a partir de la correlación (o covariación conjunta) existente entre las diferentes pruebas de inteligencia, al que denominó factor “g”.
  2. Un componente específico, llamado factor “s”, que se corresponde    con la información específica de cada test, que no guarda relación con el factor “g”, y al que le dio muy poca importancia.

Así, cada prueba de inteligencia tenía una proporción diferente de factor “g” y otra de factor “s”.
Este descubrimiento le llevó a postular su teoría general de la inteligencia, denominada teoría del factor “g”, en la que plantea la existencia de un único factor general de la inteligencia, común a todos los test de capacidades intelectuales, que explicaría el rendimiento de los sujetos en las diferentes pruebas. Este modelo ha recibido otros nombres:

  1. Teoría de los dos factores
  2. Modelo bifactorial de la inteligencia que se corresponden con el factor “g” y el factor “s” (factor residual de carácter específico de cada test).

b) Modelos de capacidades mentales primarias independientes: los modelos de Thurstone y Guilford
Modelo de capacidades mentales primarias de Thurstone
L. L. Thurstone (1887-1955) aportó al ámbito de la psicología de las diferencias individuales y matemático-estadístico, contribuyó al progreso del análisis factorial a partir del desarrollo del denominado análisis factorial múltiple, útil para encontrar el número de factores independientes que resumen las relaciones entre los distintos test de inteligencia, y de un tipo de rotación factorial orientada a encontrar la estructura factorial más simple.

A pesar de que los modelos de Spearman y Thurstone se basaban en la misma técnica estadística, el análisis factorial, para estudiar la estructura de la inteligencia, llegaron a conclusiones diametralmente opuestas. Thurstone postuló la existencia de siete factores independientes entre sí que daban cuenta de todas las correlaciones obtenidas entre distintos  test de inteligencia. Esto le llevó a considerar dos aspectos:

  1. Spearman estaba equivocado al postular un factor “g” de inteligencia de carácter único y general
  2. Es más acertado y útil evaluar la inteligencia de una persona teniendo en cuenta las aptitudes básicas que la componen, que obtener una única puntuación correspondiente al hipotético factor “g”. Para Thurstone la inteligencia de cada individuo representa un perfil constituido por el grado de relieve mostrado por cada una de las capacidades primarias, De esta forma, se puede encontrar poca capacidad matemática en un individuo, y sin embargo tener una s grandes habilidades verbales (comprensión y fluidez).

Modelo de capacidades primarias de Thurstone
Representación gráfica de las siete capacidades
mentales independientes de Thurstone

Thurstone (1938): descripción de las siete aptitudes (o capacidades) mentales primarias postuladas por el autor. Cada aptitud se representa por una letra:

  1. Razonamiento inductivo I: habilidad necesaria para la realización de aquellos procesos de razonamiento conducentes de lo específico a lo general. La persona debe descubrir reglas generales partiendo de ejemplos específicos. Esta capacidad se mide a partir de test de series de números o de letras, analogías, etc. “¿cuál es el siguiente número de la serie de números) 0 4 8 4 8 12 6 10 (___)”. El siguiente número es el 14, ya que la regla de la secuencia es la siguiente: se suma cuatro, se vuelve a sumar cuatro, se divide entre dos, y se vuelve a empezar. “¿Qué tienen en común las siguientes palabras? pato, silla, mesa y vaca.” Todas las palabras tienen “patas”.
  2. Memoria M: habilidad requerida para el recuerdo de cadenas de palabras, números u otro tipo de material. La persona debe recordar y reconocer información que anteriormente se le ha presentado, como pares de números (23 y 48), de letras o palabras (felicidad y armonía), de rostros, etc.
  3. Capacidad numérica N: habilidad para una realización rápida y precisa de cálculos y problemas matemáticos (sumas, restas, multiplicaciones, porcentajes, etc.). Por ejemplo ¿Cuánto es el 40% de 60?, simplificar la siguiente expresión (x2-1)/x-1.
  4. Rapidez perceptiva P: habilidad para la detección y reconocimiento tempranos de diversos estímulos. El sujeto debe reconocer con velocidad y precisión detalles específicos situados dentro de un entorno complejo, o percibir si dos estímulos son iguales o no. Por ejemplo dentro de un texto buscar y tachar lo más rápido posible todas las letras “e” que encuentre; ¿las dos series de símbolos son idénticas? $/&/.&././.&%$.       $/&/.&././&%$
  5. Visualización espacial S: habilidad referida a la capacidad de reconocimiento y manipulación de formas en el espacio mediante procesos de representación o visualización espacial. En las pruebas se pide que la persona visualice mapas, formas de dos o tres dimensiones, se le pide que rote objetos, encaje piezas en un puzzle, etc. 
  6. Comprensión verbal V: habilidad para la comprensión de contenidos verbales. Esta capacidad permite conocer y comprender palabras, proverbios, analogías verbales, etc. Por ejemplo, pescado es a agua como pájaro es a ……..; ¿qué significa “meticuloso”, “irascible”, “concuspiscible”, etc.
  7. Fuidez verbal W: habilidad para la emisión de una expresión verbal fluida, En las pruebas correspondientes a esta capacidad se trata de producir en un tiempo determinado el mayor número de palabras en relación con las iniciales o terminaciones de una letra, rimas, anagramas, etc. Por ejemplo: “cree tantas palabras como pueda a partir de las siguientes letras: A-Z-C-H-E; Escriba tantas palabras como pueda que empiecen con la letra “C” y acaben con la letra “N”.
Los aspectos que influyeron en la obtención de diferentes resultados con respecto a Spearman son:

  1. Los test administrados: por una parte Thurstone empleó más test y éstos debían responderse en un tiempo máximo (tenían unos límites de tiempo estrictos). Y por otra, los tipos de test empleados eran diferentes; por ejemplo Spearman realizaba una estimación conjunto de la capacidad matemática de una persona (al incluir en un test preguntas referentes a sumas, restas, multiplicaciones, etc.), Thurstone trataba la suma, la resta, multiplicación, etc., como test separados. Así, al realizar el análisis factorial, era más probable que Thurstone encontrara que estas escalas se agruparan en torno a un factor “independiente” relacionado con la capacidad matemática, que en el caso de Spearman, que lo consideraba como un test que debía ser correlacionado con otras pruebas (Cooper, 1999).
  2. Los sujetos estudiados: Thurstone administró sus test a estudiantes universitarios, que eran más homogéneos entre sí (más similares) en inteligencia que los sujetos estudiados por Spearman (más heterogéneos); por lo tanto, a Thurstone le resultaría más difícil encontrar un factor “g” que a Spearman, ya que los estudiantes universitarios tendrán una puntuación en inteligencia más parecida que si se estudia una muestra representativa de la población general, ya que esta se distribuirá con la variabilidad normal de las puntuaciones en inteligencia.
  3. El tipo de rotación factorial empleado. Mientras Spearman empleó la rotación oblicua que permite que los factores estén relacionados, Thurstone empleó la rotación ortogonal dirigida a obtener la estructura factorial más simple, y que agrupa en factores independientes los test que correlacionan mucho entre sí.

El reconocimiento por parte de ambos autores de sus diferencias y limitaciones particulares en sus investigaciones, les llevó a acercar sus posturas, e incluso a realizar cambios en su proceder metodológico. Así, Thurstone, además de comenzar a trabajar con muestras más heterogéneas, utilizó la rotación factorial oblicua, y a partir de ella, halló que sus capacidades primarias estaban relacionadas, y por tanto, era oportuno creer en la existencia de factores más generales (o de segundo orden) a sus capacidades primarias. Por su parte, Spearman, reconoció la existencia de los denominados “factores de grupo”. Estas cuestiones representan el preludio de los modelos factoriales jerárquicos de la inteligencia.


Modelo cúbico de la estructura del intelecto de Guilford
J.P. Guilford (1897-1988) estaba influenciado por Spearman, pero rechazó la validez del factor “g”. Planteó un modelo de inteligencia radicalmente distinto al que denominó modelo de estructura del intelecto (1956, 1967), conocido como el modelo cúbico de Guilford por su estructura en forma de cubo. Este autor trataba de clasificar todas las capacidades humanas existentes y de explicar los procesos intelectuales asociados a las mismas. Para ello, utilizó la técnica del análisis factorial con rotación ortogonal, similar a la inicialmente utilizada por Thurstone, que favorecía la obtención de factores independientes e impedía hallar un factor general. 



El modelo morfológico de Guilford postula que la inteligencia está compuesta por 120 habilidades o aptitudes independientes, que derivan de la combinación de tres dimensiones:

  1. contenidos, 4 facetas
  2. operaciones o procesos, 5 facetas
  3. productos o resultados, 6 facetas

4x5x6= 120 habilidades 

Modelo cúbico de Guilford



Modelo cúbico de la estructura de intelecto de Guilford
Descripción de las facetas correspondientes a cada una de las  tres dimensiones básicas de intelecto:

A) Operaciones mentales: alude a las actividades cognitivas involucradas en el procesamiento de la información. Dichas operaciones pueden responder a los siguientes procesos:
a.  Cognición: capacidad para descubrir y reconocer información, capacidad de comprender.
b.  Memoria: habilidad para almacenar contenidos registrados y poder recordarlos.
c.  Producción convergente: capacidad para alcanzar la solución más correcta a partir de los datos disponibles.
d.  Producción divergente: capacidad para dar soluciones alternativas y nuevas. Vinculada con el proceso creativo.
e.   Evaluación: capacidad para realizar juicios y valorar la información existente.
B)  Contenidos: se refiere al tipo de información que las personas procesan. Los contenidos pueden ser de cuatro tipos:
a.  Figurativos: estímulos percibidos del exterior en forma de imagen (o figura). Posteriormente Guilford en la reformulación de su modelo, dividió los contenidos figurativos en visuales y auditivos, obteniendo de este modo 150 aptitudes primarias (5 operaciones x 5 contenidos x 6 productos).
b.  Simbólicos: símbolos o signos que no tienen significado en sí mismos, tales como fichas, letras del alfabeto, monedas, notas, etc.
c.   Semánticos: palabras e ideas con significado.
d.   Conductuales: relaciones entre personas de carácter no verbal.
C)  Productos: resultados de las diversas operaciones realizadas con los distintos contenidos:
a.   Unidades: elementos y respuestas simples.
b.   Clases: unidades simples agrupadas bajo un criterio de clasificación dado.
c.  Relaciones: establecimiento de conexiones recíprocas entre unidades, tales como el género, el parentesco, etc.
d. Sistemas: conjuntos de informaciones estructuradas en una organización interdependiente. Esquemas, mapas.
e.   Implicaciones: elaboración de conexiones causales (o asociaciones) a partir de los datos existentes. Es algo así como hacer predicciones…. Si hay humo…. Hay fuego.


Según Guilford, la morfología de la inteligencia se puede representar a partir de un cubo tridimensional general conformado por 120 cubos pequeños o aptitudes mentales independientes, correspondientes a la combinación de las elementos que las constituyen. En una versión posterior planteó la existencia de 150 aptitudes mentales primarias, una vez que desglosó los contenidos figurativos en dos, visual y auditivo.

Críticas: este modelo es inapropiado para explicar la estructura de la inteligencia debido a:
  1. uso de la rotación ortogonal, lo que fuerza las dimensiones independientes e impide detectar correlaciones entre los diferentes factores e imposibilita la obtención de factores más generales.
  2. su modelo se muestra en claro contraste a la mayoría de los modelos factoriales.
  3. su modelo es tan complejo que es imposible llevar a cabo una verificación empírica completa.

Este modelo es de gran utilidad para la construcción de los test de inteligencia, y está claramente vinculado a los procesos cognitivos. De hecho Guilford plantea la detección precisa de las aptitudes mentales como elementos del sistema cognitivo, y una  forma de lograr diferenciar unas aptitudes de otras en función de la clase de información empleada, y  de los diferentes modos de operar sobre ella.
Este modelo se contempla como un modelo de facetas, siguiendo la formulación de la teoría de las facetas de Louis Guttman. Para Guttman, una faceta clasifica los elementos de una área de interés en varios tipos. En este sentido, la teoría de facetas es interesante para el estudio de la inteligencia humana. El propio Guttman ha desarrollado un modelo de facetas aplicado a la inteligencia, conocido como el modelo “radex” (1954, 1965). Este modelo es innovador, ya que no plantea una estructura derivada del análisis factorial clásico.
Para Guttman la inteligencia puede ser representada en un modelo circular de polaridades cartesianas en el que “g” ocupa el centro de la circunferencia. La cercanía o lejanía radial de las habilidades hace referencia al grado de complejidad de las mismas: aquellos test con alta saturación en “g” se sitúan cercanos al centro del espacio circular, mientras que test con bajas saturaciones en “g” se sitúan en zonas periféricas de dicho espacio. Por otra parte, aquellos test de capacidades intelectuales altamente relacionados entre sí ocupan posiciones adyacentes en el círculo. En suma, las capacidades centrales son de carácter más general y comprenden aquellas capacidades más situadas en la periferia de la estructura planteada.

Modelos factoriales jerárquicos de la inteligencia
Entre las posturas unitarias y las posturas multidimensionales (o multifacéticas) de la inteligencia, se sitúan los denominados modelos jerárquicos, claros conciliadores de las posturas anteriores. Estos modelos plantean que la inteligencia se distribuye en distintos niveles con sus correspondientes factores, y dentro de un continuo especificidad/generalidad. Por lo tanto, según estos modelos, la inteligencia se organiza en torno a una estructura jerárquica de corte piramidal.

Jerarquías puras: los modelos de Burt y Vernon
Por jerarquías puras se entiende aquel tipo de estructuras que establecen distintos niveles que van desde una gama más o menos amplia de aptitudes primarias, a un factor general único.
Modelo jerárquico de niveles mentales de Burt
Cyril Burt (1883-1971) estuvo influenciado por las ideas de Spearman y Galton acerca de la concepción de la inteligencia y contribuyó a la mejora del análisis factorial y en el ámbito de la investigación en inteligencia y la heredabilidad de la misma. Este último aspecto produjo una gran polémica social debido a la supuesta manipulación que Burt habría realizado con sus datos sobre la heredabilidad de la inteligencia para lograr, así, confirmar su hipótesis. A pesar de la polémica, su modelo fue anterior a la misma y la psicología de las diferencias individuales se enriqueció con sus genuinas investigaciones.

Burt entiende la inteligencia como una capacidad general cuya estructura es un sistema jerárquico de niveles mentales. En este sentido, la inteligencia general estaría presente en todos los niveles de la jerarquía ya que representa una “capacidad integradora”. El modelo se elaboró a partir del análisis factorial, y la estrategia empleada fue en primer lugar, extraer el factor general y, posteriormente, correlacionar la parte de varianza residual (la que no estaba explicada por este factor) para seguir extrayendo el resto de factores hasta componer un modelo jerárquico.
El modelo de Burt está compuesto por cinco niveles jerárquicos con diferente grado de complejidad funcional y cognoscitiva. El grado más bajo de complejidad se sitúa en el nivel de  la sensación, y el más alto culmina con el factor “g”.


Los niveles mentales del modelo jerárquico de Burt

Descripción de los diferentes niveles mentales del modelo propuesto por Burt de menor a mayor grado de complejidad y generalidad:

  1. Sensación: compuesto por la aptitudes sensoriales y motrices básicas.
  2. Percepción: procesos cognitivos complejos relacionados con la percepción y la coordinación de movimientos, que representan a los procesos de nivel inferior o más primarios (al estar estos últimos vinculados a aspectos sensoriales y motores)
  3. Asociación: conformado por los procesos asociativos relacionados con la memoria y la formación de hábitos
  4. Relación: se compone de los procesos relacionales, que componen el pensamiento lógico y el juicio estético.
  5. Inteligencia general “g”: constituye el nivel cognitivo más complejo y general, que integra al resto de procesos o niveles mentales.

Modelo jerárquico de la inteligencia de Vernon
Philip E. Vernon (1905-1987) estaba influido por Spearman y por Burt. El estudio estructural de la inteligencia propuesto por Vernon, se basa en su concepto de inteligencia “C”.
El modelo de Vernon (1961), también postula que la inteligencia se compone de diversas capacidades que se ubican en una estructura jerárquica de cuatro niveles de generalidad.
El modelo de Vernon (1961), también postula que la inteligencia se compone de diversas capacidades que se ubican en una estructura jerárquica de cuatro niveles de generalidad:

  1. En el primer nivel se encuentran los denominados factores específicos, que están muy relacionados con las habilidades requeridas para responder a cada test en particular.
  2. En el siguiente nivel se encuentran los factores de grupo o de carácter menor que agrupan factores específicos.
  3. El siguiente nivel está conformado por dos factores de grupos mayores, por una parte, el factor verbal-educativo (v:ed), que agrupa factores del grupo menor, tales como la comprensión y fluidez verbal, el vocabulario, el cálculo numérico, la memoria, etc., y por otra el factor espacial-mecánico, que engloba factores de grupo menor, tales como habilidades espacial, mecánica, perceptiva, etc.
  4. Por último en el nivel de mayor generalidad se encuentra un factor de inteligencia general similar al factor “g” postulado por Spearman. Según Vernon este factor explica el 40% de la variabilidad de la conducta inteligente en la vida cotidiana.
Philip E. Vernon

(1905-1987) 

Jerarquías mixtas: los modelos de Cattell y Horn 
Son modelos calificados de mixtos en la medida en que, al no contemplar un factor “g”, y focalizarse básicamente en los factores de segundo orden, no son jerarquías puras.
Raymond B. Cattell (1905-1998) es uno de los autores más emblemáticos de la psicología diferencial (40 libros y más de 400 artículos en revistas científicas). Fue discípulo de Spearman y en 1927 presentó su tesis doctoral, bajo la dirección de Burt. Cattell ha estudiado la inteligencia, la personalidad y contribuido al ámbito metodológico, sobre todo al desarrollo y uso de nuevas técnicas estadísticas en el estudio de la inteligencia.
Raymond B. Cattell (1905-1998)
John Horn, discípulo y gran colaborador de Cattell, es uno de los investigadores más brillantes en el estudio de la estructura de la inteligencia. Trabajó con Cattell en el desarrollo del modelo de inteligencia fluida (Gf) e inteligencia cristalizada (Gc), conocido como el modelo Gf-Gc o modelo de Cattel-Horn. La gran aportación de Horn se ve reflejada en su tesis doctoral “Inteligencia fluida y cristalizada: estudio analítico factorial y desarrollo de la estructura entre capacidades mentales primarias”, fue su gran aportación.
John Horn
El modelo Gf-Gc, formulado inicialmente por Cattell en 1943, se desmarca de la concepción unitaria de la inteligencia de Spearman al plantear que existen dos factores generales de inteligencia:
  1. Inteligencia fluida
  2. Inteligencia cristalizada
Posteriormente, la teoría de Cattell con la valiosa aportación de Horn fue contrastada empíricamente mediante el análisis factorial exploratorio y el uso de la rotación oblicua. La Teoría Gf-Gc de la inteligencia (Cattell, 1971) representa una de las elaboraciones más fructíferas y relevantes en este ámbito.
Este modelo considera que la inteligencia se estructura jerárquicamente en tres niveles de diferente generalidad.

Modelo de inteligencia Gf-Gc de Cattell, 1971
  1. En el nivel más básico, se sitúan los factores de primer orden, referidos a las aptitudes mentales primarias de Thurstone, y a algunas de las aptitudes postuladas por Guilford.
  2. En el segundo nivel , se ubican cinco factores de segundo orden (más generales que los del primer nivel). destacan la inteligencia fluida (Gf) y la inteligencia cristalizada (Gc), los restantes factores son la inteligencia visual (Gv), la capacidad de recuperación (Gr) y la velocidad cognitiva (Gs).
  3. En el tercer nivel se encuentran dos factores de tercer orden:
  1. la inteligencia fluida histórica u originaria (Gf-h), que algunos autores identifican con el factor “g” de Spearman o inteligencia heredada.
  1. un factor de aprendizaje común, adquirido fundamentalmente en el ambiente escolar y familiar, que se relaciona con el tiempo que la persona ha estado escolarizada, el interés o motivación que tiene, y su memoria histórica (estos tres aspectos, al operar en conjunción, determinan el aprendizaje).

Dentro de los factores de segundo orden, mientras que la inteligencia fluida presente (Gf-1) proviene exclusivamente de la inteligencia fluida histórica (Gf-h), la inteligencia cristalizada (Gc) es fruto de la interacción entre el grado de inteligencia fluida histórica y del aprendizaje adquirido (Se)  mediante la educación de los años anteriores. La inteligencia fluida presente (Gf-1) es inferida a partir de la Gf-2 (factor de primer orden) que se mide mediante test libres de influencia cultural o culturalmente imparciales (pruebas que permiten evaluar la inteligencia de un individuo sin que en dicha evaluación influya la cultura o medio del que éste proviene). En cambio, la inteligencia cristalizada (Gc) se puede inferir a partir de otras capacidades específicas:

  1. Espacial (S)
  2. Verbal (V)
  3. De razonamiento (R)
  4. Numérica (N)
  5. De fluidez verbal (F)
  6. Mecánica (M)
Inteligencia fluida e inteligencia cristalizada

  1. Inteligencia Fluida (Gf): alude a la capacidad para adaptarse y afrontar situaciones nuevas de forma flexible sin que el aprendizaje previo constituya una fuente de ayuda determinante para su manifestación. La inteligencia fluida está básicamente configurada por aptitudes primarias tales como la inducción y la deducción, las relaciones y clasificaciones figurativas, la amplitud de la memoria asociativa o la rapidez intelectual. Presenta una clara relación con aspectos neurofisiológicos (el desarrollo de asociaciones neuronales), así como una mayor base genética que la inteligencia cristalizada. Esta inteligencia alcanza su máximo desarrollo en torno a la adolescencia, más pronto que la inteligencia cristalizada. A partir de la vida adulta esta capacidad tiende a disminuir en paralelo al envejecimiento y deterior de las estructuras neuronales. Un decremento de la inteligencia fluida puede deberse, al patrón de envejecimiento normal o a accidentes, enfermedades, drogas, etc., que producen lesiones o afecciones en diferentes estructuras cerebrales y del SNC. Esta inteligencia es algo similar al hardware de la inteligencia. Esta capacidad se puede evaluar a partir de test que miden la potencialidad biológica que tiene el individuo para aprender o adquirir conocimiento.
  2. Inteligencia Cristalizada (Gc): se refiere a aquel conjunto de capacidades, estrategias y conocimientos, que representa el nivel de desarrollo cognitivo alcanzado a través de la historia de aprendizaje del sujeto. La inteligencia cristalizada está constituida por aptitudes relativas a la comprensión verbal, el establecimiento de relaciones semánticas, la evaluación y valoración de la experiencia, el establecimiento de juicios y conclusiones, los conocimientos mecánicos o la orientación espacial. Depende en gran medida del aprendizaje derivado de la experiencia previa del sujeto en el ámbito cultural al que pertenece; una persona desarrollará su inteligencia fluida histórica en la medida en que invierta su inteligencia fluida histórica en experiencias de aprendizaje. El potencial de desarrollo intelectual con el que una persona nace (inteligencia fluida histórica) alcanzará un mayor o menor grado según sean sus experiencias educativas. El desarrollo intelectual y el valor máximo alcanzado pueden alargarse más en la vida de una persona en la medida en que su contexto vivencial potencie dicho desarrollo. Esta capacidad se puede evaluar mediante test que evalúen los conocimientos adquiridos a través de la interacción con el medio sociocultural (aptitudes verbales) y se asemejaría al software de la inteligencia.

Metafóricamente, la inteligencia fluida representaría una especie de cascada que fluye, y que se extiende por todo el caudal que la contiene; tendría el potencial del líquido que mana, estando presente en todas las actividades mentales y discurriendo a través del quehacer intelectual de forma natural. En cambio, la inteligencia cristalizada, puede representarse como un diamante que simboliza un cristal sólido, valioso, menos maleable que el agua, y que ha sido pulido (trabajado) a partir de las condiciones ambientales en las que se desarrolló y de las experiencias de aprendizaje. La valía de la inteligencia cristalizada reside en que, conforme pasan los años, puede seguir creciendo hasta la vejez, a diferencia de la inteligencia fluida que a partir  de la juventud, tiende a estabilizarse e ir decreciendo.

Diferencias entre factores Gf-Gc

Tanto la inteligencia fluida como la inteligencia cristalizada son dos factores que han sido ampliamente ratificados, y el punto de partida de un buen número de investigaciones hasta el momento presente.


John Horn, tras ayudar a Cattell en el desarrollo de su teoría estructural de la inteligencia, reformuló el modelo Gf-Gc y elaboró su propio modelo acerca de la organización de las capacidades intelectuales. Este nuevo modelo supone una integración de múltiples autores y paradigmas científicos. En concreto integra:

  1. las leyes neogenéticas del modelo de Spearman
  2. el modelo de Cattell
  3. los postulados del procesamiento de la información
Horn considera que la inteligencia se organiza funcionalmente de forma jerárquica. De esta forma, el desarrollo de las funciones cognitivas más básicas:
  1. detección auditiva
  2. detección visual
  3. memoria a corto plazo
  4. memoria a largo plaza

Dan lugar a capacidades vinculadas al procesamiento asociativo y posibilitan la aparición de la inteligencia fluida y cristalizada.
Siguiendo el esquema de organización de las capacidades intelectuales de Horn:
  1. Habría diez factores de segundo orden
  2. Tanto la jerarquía del desarrollo como la jerarquía del procesamiento de la información siguen un curso que va desde los procesos cognitivos más simples o básico, hasta los más complejos y de mayor generalidad
  3. En la cúspide de esta jerarquía se sitúan la inteligencia fluida como la inteligencia cristalizada
  4. Factores: la velocidad del procesamiento de la información
  5. Horn considera que existen más factores de segundo orden que los establecidos por Cattell, y con distinto significado.

La concepción de la inteligencia , según Cattell y Horn, se focaliza en las habilidades de segundo orden. Para estos autores, un único factor de inteligencia no sería útil para dar cuenta de toda la amplitud del comportamiento inteligente. A pesar de  la evidente importancia de abordar empíricamente las relaciones entre las más de 40 capacidades primarias con cuestiones como:

  1. El desarrollo
  2. El logro académico
  3. Los correlatos neurofisiológicos
  4. Los aspectos genéticos, etc.

Estos autores consideran que esta tarea es especialmente difícil y compleja. En consecuencia, Horn nos dice que el compromiso de la teoría de la inteligencia fluida y cristalizada se sitúa entre estos dos extremos:

  1. dar cuenta de los factores comunes existentes entre las habilidades primarias
  2. interrelaciones existentes entre estas capacidades 
  3. los factores más amplios dentro de su modelo

Factores de segundo orden en la organización de las capacidades mentales propuestos por Horn

  1. Inteligencia fluida (Gf) o razonamiento fluido: Capacidad que se mide a partir de tareas que requieren razonamiento inductivo, deductivo, conjuntivo, disyuntivo para llegar a conocer las relaciones entre los estímulos, para realizar inferencias, etc.
  2. Inteligencia cristalizada (Gc) o conocimiento de aculturación: Este factor se evalúa mediante tareas que indican la amplitud y profundidad del conocimiento de conceptos, y de las formas de razonamiento que han sido desarrollados por las personas a lo largo de los siglos y transmitidos culturalmente de generación en generación. La inteligencia cristalizada podría considerarse como la inteligencia de la cultura que es incorporada por los individuos a través de un proceso de aculturación.
  3. Visualización general (Gv) o procesamiento visual: Este factor se mide mediante tareas que implican el cierre visual y la constancia, así como la fluidez en imaginar la rotación de los objetos.
  4. Procesamiento auditivo (Ga): Este factor se mide a partir de tareas que implican la percepción de patrones de sonido bajo distracción o distorsión, mantenimiento de la conciencia del orden y ritmo entre sonidos, y comprendiendo elementos de grupos de sonidos, tales como coros, y las relaciones entre tales grupos.
  5. Velocidad de procesamiento (Gs): Capacidad implicada en casi todas las tareas intelectuales y que es considerada por algunos autores como el rasgo central de la inteligencia. Se puede medir a través de tareas intelectuales simples (en las que casi todas las personas podrían dar una respuesta correcta si la tarea no fuera de rapidez).
  6. Velocidad de decisión correcta (CDS): Factor central para la inteligencia, medible a partir de la rapidez en emitir respuestas en tareas que requieren la solución de problemas.
  7. Aprehensión-retención a corto plazo (SAR). También denominada memoria a corto plazo (GSM): Considerada a menudo como un rasgo central de la inteligencia, que se puede medir a partir de diferentes tareas que indican la conciencia  de, y la capacidad para recordar, elementos de estimulación inmediata. Es decir, la conciencia en un momento determinado se centra en un evento o en una serie de estímulos y que con posterioridad serán almacenados u olvidados.
  8. Almacenamiento y recuperación a largo plazo (TSR). Denominada también memoria a largo plazo (Glr): Se mide mediante tareas que indican la capacidad para consolidar la información almacenada y que principalmente requieren recuperación, a través de la asociación, de la información que fue almacenada minutos, horas, semanas y años antes.
  9. Detección visual general (vSD): Este factor se mide a partir de tareas que indican rapidez para detectar (en pocos milisegundos) una gran cantidad de información visual (curvatura, simetría, paralelismo, bordes, cuñas, bloques, conos, etc.).
  10. Detección sensorial auditiva (aSD). Denominada memoria de elección: Esta capacidad se puede medir con tareas que requieren tener conciencia, durante breves periodos de tiempo (milisegundos), de cantidades relativamente grandes de información auditiva.

Similitudes conceptuales entre Cattell y Horn

  1. Consideran que las capacidades intelectuales se organizan jerárquicamente (en diferentes niveles de generalidad) y están interconectadas.
  2. Plantean que no existe un factor “g” común a todas las capacidades porque, a paesar de la relación común entre las diferentes capacidades intelectuales, dicho factor no explica toda la varianza común del rendimiento intelectual. Sin embargo, esta concepción de la inexistencia de un factor “g” ha sido criticada por otros autores, ya que tanto Gf como Gc no son factores totalmente independientes mostrando una correlación de aproximadamente 0,50 (Juan-Espinosa, 1997).
  3. Cattell y Horn, tras haber empleado medidas primarias distintas, Cattell empleó aptitudes mentales primarias y Horn partió de procesos básicamente sensoriales, obtienen el mismo resultado: la existencia de factores generales de inteligencia o de segundo orden (Gf y Gc); esta convergencia, después de comenzar sus investigaciones por caminos diferentes, valida la noción de estructura jerárquica de la inteligencia y la existencia de la inteligencia fluida y la inteligencia cristalizada como factores de orden superior por encima del resto de factores de segundo orden.
  4. Coinciden en que la edad influye en las aptitudes a lo largo del ciclo vital y en los efectos de la inteligencia fluida sobre la inteligencia cristalizada.

Diferencias conceptuales entre Cattell y Horn

  1. El número de factores de segundo orden y  el significado adjudicado a cada uno de ellos. Mientras que Cattell y Horn (en sus inicios) hallaron cinco factores de segundo orden dentro de la estructura jerárquica de la inteligencia, posteriormente Horn añadió cinco más, estableciendo por lo tanto diez factores de segundo orden. Estos factores los conceptualizó de forma diferente al modelo inicial.
  2. La heredabilidad de Gf y Gc. Si Cattell consideraba que la inteligencia fluida histórica estaba determinada genéticamente, y en cambio la inteligencia cristalizada presentaba una gran influencia ambiental, Horn plantea que ambos tipos de inteligencia son igualmente heredables pero con influencias genéticas diferentes.
  3. La influencia de unas capacidades en el desarrollo de las demás. Mientras que Cattell concibe que la inteligencia fluida histórica, y la inversión de esta en experiencias de aprendizaje, influyen en el desarrollo del resto de aptitudes mas elementales (factores de primer y segundo orden), Horn entiende que son los procesos psicológicos simples (recepción sensorial, procesamiento asociativo, etc.) los que posibilitan el desarrollo de capacidades más complejas (inteligencia fluida y cristalizada) haciendo que  éstas últimas sobresalgan y se diferencien de las demás en la madurez (Juan- Espinosa 1997).   
Modelo de Cattell
Modelo de Horn











Principales aportaciones de estos autores (Cattell y Horn)
  1. Intento de integración de los modelos estructurales de la inteligencia.
  2. Aplicabilidad en el ámbito de la evaluación al haber construido test relacionados con la inteligencia fluida( test libres de influencia cultural) y cristalizada, inspirar a otros autores en la confección de test que tienen en cuenta los factores postulados por el modelo de Cattell-Horn.
  3. Utilidad en el ámbito neuropsicológico (relaciones interhemisférica, etc.)
  4. Presentación de un modelo evolutivo de la inteligencia.
  5. Interés por los aspectos hereditarios relacionados con la inteligencia.

Jerarquías integradoras más recientes: los modelos de Gustafsson y Carroll
Se entiende por jerarquías integradoras aquellos modelos que han porcurado integrar, más recientemente, todos los modelos estructurales existentes en un modelo único. Dos son los modelos a los que se hace referencia:
  1. El modelo factorial jerárquico HILI de Gustafsson
  2. Modelo de los tres estratos de Carroll

Modelo factorial jerárquico HILI de Gustafsson

En 1980 seguía vigente el debate en torno a la organización de las capacidades mentales y a la estructura de la inteligencia. En concreto, el debate se centraba en:
  1. ¿las capacidades mentales están organizadas jerárquicamente?
  2. si la inteligencia se estructura jerárquicamente ¿en la cúspide de la jerarquía existe un factor general (o factor “g”, tal y como postuló Spearman) o varios factores generales (como indicaron Cattell o Horn)?
  3. ¿la inteligencia fluida hallada por Cattell y Horn coincide con el factor general de inteligencia o son factores diferentes?
  4. ¿existe relación entre los factores de grupo de Vernon y los de Cattell y Horn), etc.


En este contexto Jan-Eric Gustaffson contrastó los modelos de la estructura  de la inteligencia más relevantes a partir del anállisis factorial confirmatorio. Este nuevo método de análisis, presentado en 1965 por Jöreskog, permite contrastar un modelo factorial determinado y comporbar si el modelo se ajusta a los datos empíricos. Como se recordará, dentro de la metodología del análisis factorial, el método confirmatorio, a diferencia del exploratorio, parte de un supuesto o hipótesis a priori que trata  de verificar. Emplea una metodología deductiva, ya que parte de una teoría general apriorística hacia la confirmación empírica particular.

Tras estudiar qué estructura se ajustaba mejor a los datos empíricos, propuso el modelo factorial jerárquico HILI (1988). El término HILI (Hierarchical Lisrel) deriva:

  1. de la estructura jerárquica de la inteligencia confirmado por Gustaffson
  2. del programa estadístico empleado en sus investigaciones (el programa LISREL) que permite analizar modelos de ecuaciones estructurales y que comúnmente se identifican con el análisis factorial confirmatorio.

Este modelo supone:

  1. Una síntesis de los modelos de Thurstone, Cattell-Horn y de Vernon
  2. Una reunificación de los modelos de Cattell-Horn y de Vernon por su gran relevancia y similitud

Las principales conclusiones obtenidas por Gustaffson:

  1. Las capacidades mentales se organizan en una estructura jerárquica con tres niveles de diferente grado de generalidad:
  1. En la base se ubican los factores primarios, tal y como señalaron Thurstone, Guilford, etc. 
  1. En un nivel intermedio, se confirma la presencia de cinco factores de segundo orden que concuerdan con los encontrados por Cattell y Horn, en concreto inteligencia fluida (Gf), inteligencia cristalizada (Gc), inteligencia visual (Gv), capacidad de  recuperación (fluidez/recuerdo) (Gr) y velocidad cognitiva (Gs). 
  1. Y en la cúspide de la jerarquía se sitúa el factor general de inteligencia (factor “g”), tal y como postuló Spearman.
  1. Concibe una clara correspondencia entre el modelo de Vernon y el de Cattell y Horn. 
  1. En concreto identifica el factor “g” con la inteligencia fluida, ya que con el peso factorial de Gf en g se acerca a la unidad
  1. además convergen los factores de segundo orden “verbal-educativo” y “mecánico-espacial” (de Vernon), con la inteligencia cristalizada y la inteligencia visual  (de Cattell y Horn), respectivamente.

La identificación del factor “g” con la inteligencia fluida ha sido puesta en entredicho por el estudio posterior de Carroll (1993), al no encontrar una correlación tan elevada entre ambos factores. También Horn (1997) indica que le factor de inteligencia fluida, al ser un factor de segundo orden, no explica todas las intercorrelaciones entre el resto de factores de segundo orden (inteligencia fluida, inteligencia visual, etc.). Según Juan-Espinosa (1997) no es la inteligencia fluida la que se identifica con el factor “g” de Spearman sino la inteligencia fluida histórica propuesta por el modelo Gf-Gc de Cattel y Horm.


Modelo de los tres estratos de Carroll
John B. Carroll nacido en 1916, discípulo de Thurstone, escribió el libre “Capacidades cognitivas humanas” que supone un compendio integrador y exhaustivo acerca de las aptitudes cognitivas del ser humano. Pretendía obtener un modelo general e integrado de la estructura de la inteligencia human. Revisó y evaluó las investigaciones factoriales más relevantes que hasta la fecha se habían realizado sobre la estructura de la inteligencia.


Síntesis del libro de Carroll “Capacidades cognitivas humanas”

Cooper (1999) resume las principales ideas que contiene este libro y la gama de factores que en el se contemplan:

  1. Tres tipos de capacidad de razonamiento:

  • inductivo
  • deductivo 
  • la necesaria para la resolución de problemas matemáticos

  1. Cinco factores de memoria:
  • desarrollo de la memoria
  • memoria asociativa
  • memorial visual
  • memoria de material significativo
  • recuerdo libre
  1. Entre cinco y ocho factores de percepción visual, incluyendo:

  • velocidad perceptiva
  • capacidad espacial, velocidad de cierre
  • flexibilidad de cierre
  • visualización

  1. Doce factores auditivos que incluyen:

  • la capacidad para escuchar sonidos débiles
  • para localizar sonidos en el espacio
  • recuerdos de tonos, etc.

  1. Nueve factores vinculados a la velocidad con la que las ideas pueden ser:
  • generadas o expresadas
  • incluyendo la fluencia de ideas y verbal.
  1. Una gran variedad de factores asociados con el uso del lenguaje
  2. Diversos factores asociados al rendimiento escolar/conocimiento y habilidades sociales

Etapas del desarrollo del libro de Carroll:
  1. En primer lugar, recopiló una gran cantidad de investigaciones realizdas en múltiples universidades de todo el mundo (bases de datos, matrices de correlaciones entre aptitudes, etc.).
  2. En segundo lugar, sólo consideró aquellas investigaciones que cumplieran unos requisitos mínimos:

contar con muestras relativamente amplias, que la muestra de cada investigación seleccionada estuviera conformada como mínimo por 100 sujetos, y que estuvieran representados distintos grupos de edad (adolescentes, adultos, ancianos).

ofrecer suficiente información acerca de la muestra (edad, distribución de los sujetos en función del sexo, clase social, etc.) y de las variables (aptitudes) consideradas, de esta forma poder realizar al menos interpretacones tentativas acerca de los resultados obtenidos.

contar con un elevado número de variables de rendimiento (test, subtest, etc) que representara adecuadamente las tareas cognitivas correspondientes a las diferentes aptitudes mentales que conforman la inteligencia humana.

presentar la matriz de correlaciones entre las aptitudes, o que se pudiera acceder a las bases de datos originales de cada investigación.

Los resultados de esta laboriosa investigación le condujeron a formular su teoría de la estructura de la inteligencia que denominó teoría de los tres estratos (Carroll,1997). Esta teoría supone una expansión y extensión de teoría previas y represetna la síntesis final de la mayor parte de los modelos existentes sobre la estructura de la inteligencia. Representa un mapa de todas las capacidades cognitivas de la inteligencia humana que se conocen o que se espera que existan (Juan-Espinosa 1997). Se hallaron:

  1. 2.272 factores de primer orden (ciudades)
  2. 572 factores de segundo orden (provincias)
  3. 36 factores de tercer orden (comunidades)

Es importante diferenciar entre el orden en que se obtienen los factores, y el estrato en el que los diferentes factores se ubican:
El orden alude a las operaciones factoriales realizadas para la obtención de los diferentes factores. 

  • así, los factores de primer orden se obtienen mediante un análisis factorial de la matriz de correlaciones entre los factores de primer orden (aplicable sólo si hay dos o más factores de primer orden y si las correlaciones entre los factores son diferentes de cero).
  • los factores de tercer orden mediante la factorización de la matriz de correlaciones de los factores de segundo orden (si hay dos o más factores de segundo orden).

El estrato se refiere al nivel absoluto de generalidad que alcanza un factor, con independencia del orden factorial alcanzado (Juan-Espinosa, 1997) Los diferentes factores se ubican en función de su mayor o menor grado absoluto de generalidad con respecto a las demás capacidades cognitivas. En este sentido, las diferentes aptitudes cognitivas se sitúan dentro de los tres estratos.

Modelo de los tres estratos de Carroll, 1993
Modelo de los tres estratos de Carroll
1. En el primer estrato, el más concreto o específico, se incluye un gran número de aptitudes mentales primarias que se asemejan a las aptitudes primarias planteadas por Guilford. Algunas aptitudes pertenecientes a este primer estrato se refieren a diferentes tipos de velocidad:perceptiva, de razonamiento, de procesamiento semántico, de lectura, etc., al tiempo de reacción, simple y de elección, al conocimiento léxico, a la amplitud de memoria, a la estimación de la longitud, a las relaciones espaciales, a la capacidad de visualización, a la discriminación de sonidos, frecuencia, intensidad, duración del habla, etc., a la aptitud para localizar sonidos, a la fluencia, asociativa, expresiva, figural, de palabras, etc., a la facilidad numérica, etc.
2. El segundo estrato corresponde a factores que tienen un mayor grado de generalidad que los factores del primer estrato. Estos factores se representan con el número 2, indican la pertenencia la segundo estrato, y una letra, perteneciente a la capacidad concreta a la que se refiere. Un resumen de los principales factores pertenecientes al segundo estrato:
Inteligencia fluida (2F): representa diferentes capacidades que implican procesos intelectuales básicos y que permiten realizar tareas intelectuales libres en su mayor parte de conocimientos culturales. Algunas de las aptitudes implicadas son la abstracción, la inducción, la capacidad de generalización, el razonamiento, la visualización, etc.
Inteligencia cristalizada (2C): capacidad relacionada con la adquisición de nuevos conocimientos, que está vinculada al aprendizaje, la experiencia, la socialización, etc. Esta capacidad está compuesta por aptitudes tales como el conocimiento léxico, la escucha, la fluencia oral, la gramática, la velocidad lectora, la escritura, la capacidad para los idiomas no maternos, etc.
Memoria y aprendizaje (2Y): capacidad implicada en tareas que requieren del aprendizaje y de la memorización de conceptos nuevos. Algunas aptitudes primarias englobadas dentro de esta capacidad son la amplitud de memoria, la memoria asociativa, el recuerdo libre, etc.
Percepción visual (2V): capacidad referida a la percepción de formas y al procesamiento sensorio-perceptivo visual. Algunas aptitudes primarias son la rapidez perceptiva, la percepción de ilusiones ópticas, la visualización, la velocidad y flexibilidad de cierre, las relaciones espaciales, la estimación de longitudes, etc.
Percepción auditiva (2U): engloba factores primarios vinculados con tareas perceptivas pertenecientes al ámbitos sensorial auditivo. Algunos de los factores primarios representados por este factor son la discriminación de la frecuencia, intensidad, duración de los sonidos, de la discriminación de sonidos del habla, de la percepción del ritmo, del recuerdo de patrones de sonidos, etc.
Capacidad de recuperación (2R): capacidad relativa al rendimiento de un sujeto al realizar una tarea que requiere recordar información almacenada en la memoria. Esta capacidad engloba aptitudes como la fluidez asociativa, expresiva, de ideas, de flexibilidad figural, etc.
Velocidad cognitiva (2S)Rapidez de procesamiento (2T): son dos capacidades relacionadas con las tareas que exigen rapidez en la actividad o en el rendimiento cognitivo. Dentro de estos dos factores, se engloban aptitudes tales como la velocidad para realizar un test, la velocidad perceptiva, el tiempo de reacción, simple y de elección, la velocidad de procesamiento semántico, etc.
3. El tercer estrato es el más general se refiere a un único factor de inteligencia general (denominado 3G) se corresponde con el factor “g” de Spearman. Este factor está vinculado a la mayoría de factores de segundo orden, y suele aparecer en el segundo o tercer nivel de factorización. El factor “g” no representa por igual a todos los factores del segundo estrato. De hecho, los factores mejor representados por este factor general son la inteligencia fluida y la inteligencia cristalizada.
El modelo de los tres estratos de Carroll supone una expansión, extensión e integración de las teorías previas acerca de la estructura de la inteligencia. En este sentido:
  1. en el tercer estrato se ubica un factor “g” planteado por Spearman (su teoría bifactorial ya que sugiere la existencia de dos estratos) 
  2. en el segundo estrato, aparecen los mismos factores postulados por Cattell y Horn, coincidiendo todos ellos en la importancia de los dos factores: la inteligencia fluida y la inteligencia cristalizada. 
  3. en el primer estrato se ubican las aptitudes primarias, como planteó Thurstone. El modelo de los tres estratos converge en una estructura jerárquica de las aptitudes mentales tal y como defendieron Burt, Vernon, Cattell, Hakstian y Horn, entre otros.
Guilford, entre otros no comparte la opinión de Carroll. Le cuesta admitir la existencia de factores de orden superior (o diferentes niveles jerárquicos) en la estructura de la inteligencia, o de Gadner que postula la existencia de múltiples inteligencias que son independientes entre sí. Carroll indica que su teoría guarda un cierto parecido con la de Gardner. en concreto dice que las capacidades amplias o factores pertenecientes al segundo estrato, se corresponden a grandes rasgos con los siete inteligencias de Gardner. 

Evaluación de la inteligencia
No se sabe con exactitud cuántas capacidades mentales existen. Cuando se quiere describir la inteligencia o las capacidades mentales de una persona se recurre a diferentes pruebas psicométricas (test). Es importante la selección de test que más se  adecuen al objeto de evaluación. Si se quiere conocer la rapidez de la inteligencia general se puede emplear el test de matrices progresivas de Raven o emplear diferentes test de dominós como el D-70 de Kowrousky y Rennes (TES, 2000)
Si quiere seleccionar a los candidatos idóneos para ocupar un puesto de trabajo en donde se deben leer e interpretar planos y alzados, operar con imágenes y figuras geométricas, pueden ser de gran utilidad pruebas que permitan evaluar la capacidad espacial. Es decir, estudiar aptitudes primarias o factores correspondientes al primer estrato de la teoría de Carroll, puede ser muy útil.
Desde la perspectiva psicométrica de la inteligencia, los modelos jerárquicos consideran que las capacidades intelectuales más generales de una persona se pueden conocer mediante la evaluación de los factores de segundo orden (Cattell y Horn), o de los factores correspondientes al segundo estrato de la teoría de Carroll (ambos tipos de factores muestran una clara convergencia). 
A partir de la evaluación de dichos factores se puede lograr una aproximación muy buena a la inteligencia particular de cada persona.
Cooper (1999) se puede explicar el rendimiento de una persona:
  1. en un test psicológico determinado en términos de habilidades mentales primarias (Thurstone)
  2. en términos de capacidades correspondientes a factores de segundo orden, inteligencia fluida o inteligencia cristalizada, percepción visual, velocidad de procesamiento, etc. 
  3. en términos de su capacidad general, factor “g” de Spearman.
test de Raven
Test de dominós
Test de capacidad espaciales
Aportaciones de los modelos estructurales de la inteligencia

¿Qué representan los modelos estructurales para el estudio de la inteligencia y a las diferencias individuales en inteligencia? 
  1. El intento más exhaustivo de identificación de las dimensiones básicas de las habilidades cognitivas.
  2. La búsqueda de una estructura significativa e interpretable, de carácter relativamente estable de las capacidades humanas, que pueda guiar el desarrollo de teorías de la inteligencia y la cognición. Los modelos psicométricos son valiosos en la formación de hipótesis.
  3. La contribución más importante al estudio de las deferencias individuales en inteligencia.
  4. Instrumentos útiles para establecer las relaciones de la inteligencia (medida a través de los factores obtenidos) con otras variables de carácter empírico, como los procesos cognitivos, los biológicos o las diferencias entre culturas.
  5. La orientación más clara hacia la clasificación, predicción y selección, a partir del análisis de las diferencias individuales obtenidas, hacia una vertiente tecnológica o aplicada del conocimiento.  
Críticas a las teorías estructurales:
  1. El uso de los test de CI por presentar una orientación excesivamente genetista, determinista  y susceptible de alentar prejuicios sociales dadas las diferencias encontradas en el CI de distintas razas, clases sociales, o entre hombres y mujeres.
  2. Ha generado fuertes polémicas sociales, llegando a arbitrarse legislaciones acerca del uso de los test con finalidad de contener los posibles abusos derivados de una utilización incorrecta de los mismos.
  3. Llegar a prohibirse la utilización de test mentales en algunos momentos históricos y lugares concretos como en Rusia.

Reflexiones críticas:
  1. Función meramente descriptiva que no permite articular mecanismo explicativo alguno, Los diferentes modelos estructurales se obtienen a partir de las relaciones entre diferentes pruebas de inteligencia, a partir de índices estadísticos como la correlación no se puede establecer relaciones de causalidad.
  2. Carácter latente y estático. Los factores defendidos por los estructuralistas no revelan nada acerca de la naturaleza de la inteligencia o su funcionamiento. Stenberg, Carroll o Horn señalan que dos personas con las mismas puntuaciones en un test mental clásico pueden haber obtenido el mismo resultado a partir de procesos cognitivos diferentes, de igual modo, un mismo CI puede estar configurado por perfiles de capacidades distintas, sin que ello pueda ser apreciado a partir de una puntuación global en CI.
  3. Criterios subjetivos de elaboración teórica. No parecen existir diferencias de fondo entre las teorías o las estructuras propuestas, a pesar de la proliferación existente. Muchas teorías factoriales han mostrado una mayor diferenciación en términos de la orientación de los ejes factoriales para una solución dada, que en cualquier otra cuestión fundamental, Son, matemáticamente hablando equivalentes y dependen del criterio subjetivo del autor.
  4. Dificultad de falsación. Los modelos propuestos son útiles para la formación de hipótesis pero no permiten una falsación científica.
  5. Carácter artificial de las investigaciones psicométricas y falta de atención a los contextos reales en donde la conducta inteligente se produce, las pruebas basadas en problemas que no son reales ni cotidianos, y en la medida en que los psicólogos trabajan con puntuaciones y no con personas.
  6. Carácter estrictamente cuantitativo, centrado únicamente en el análisis de diferencias individuales con el objetivo de situar a cada sujeto en una posición dada, dentro de un grupo normativo, independientemente de la importancia del proceso intelectual, en si de carácter cualitativo.
  7. Carácter reduccionista de los procedimientos de la evaluación: la precisión de la respuesta emitida ha sido el índice habitual empleado en los test psicométricos. A excepción del nivel de dificultad de los ítems, parámetros tales como el número de cuestiones resueltas o la velocidad de respuesta han sido usualmente desatendidos.
  8. Escaso poder de intervención. Dado que no analizan procesos intervinientes, sino resultados finales, no permiten elaborar estrategias efectivas para poder intervenir en donde sea necesario, ni desarrollar programas de entrenamiento de la inteligencia.
Aunque no hay un acuerdo único para las descripción de la estructura de la inteligencia, la mayoría de los investigadores utilizan similares, si no idénticos sistemas. 
Conclusiones recientes de Horn sobre la estructura de la inteligencia, 1995
  1. Existen factores comunes generales que abarcan diferentes capacidades. Existe una gran redundancia en cuanto a los aspectos que evalúan los test. Estos procedimientos de evaluación de la inteligencia comparten un gran porcentaje de varianza (evalúan aspectos comunes) y por ese motivo, un elevado número de medidas de las capacidades humanas pueden ser descritas, con gran fiabilidad, mediante un número relativamente pequeño de factores comunes. 
  2. La inteligencia se organiza jerárquicamente.
  3. Se han encontrado cuatro niveles de factores comunes dentro de la estructura jerárquica de la inteligencia. 40 aptitudes primarias se resumen en 10 factores de segundo orden y de ellos se obtienen 2 factores comunes de tercer orden. Estos dos factores están relacionados positivamente, lo cual indica la existencia de un factor común.

Puntualizaciones planteadas por Carroll, 1997

  1. Queda mucha labor por hacer en torno al estudio analítico-factorial de las capacidades cognitivas.
  2. No obstante, las limitaciones del análisis factorial no son tan serias, los análisis confirmatorios modernos pueden contribuir a paliar algunas de las principales deficiencias de los modelos psicométricos tradicionales de carácter exploratorio.
  3. El mapa de las capacidades cognitivas presenta errores de emisión y de omisión que deben ser detectados y eliminados.
  4. Es necesario investigar el desarrollo, la estabilidad y el grado en el que se pueden enseñar y educar las capacidades.
  5. La teoría comprehensiva de Carroll necesita ser validad posteriormente.
  6. Carroll considera que su teoría tiene así mismo importantes aplicaciones en el ámbito de la psiconeurología y genética humana.
Aspectos todos que tienen gran interés en la práctica educativa, clínica y el industrial. 


Entonces ¿Sabemos lo que es la inteligencia?

Dalí 1936
El crimen fue en Granada

Se le vio, caminando entre fusiles,

por una calle larga,

salir al campo frío,
aún con estrellas, de la madrugada.
Mataron a Federico
cuando la luz asomaba.
El pelotón de verdugos
no osó mirarle la cara.
Todos cerraron los ojos;
rezaron: ¡ni Dios te salva!
Muerto cayó Federico.
-sangre en la frente y plomo en las entrañas-.
…Que fue en Granada el crimen
sabed -¡pobre Granada!-, en su Granada…
Se le vio caminar solo con Ella,
sin miedo a su guadaña.
Ya el sol en torre y torre; los martillos
en yunque – yunque y yunque de las fraguas.
Hablaba Federico,
requebrando a la muerte. Ella escuchaba.

“Porque ayer en mi verso, compañera,

sonaba el golpe de tus secas palmas,

y diste el hielo a mi cantar, y el filo
a mi tragedia de tu hoz de plata,
te cantaré la carne que no tienes,
los ojos que te faltan,
tus cabellos que el viento sacudía,
los rojos labios donde te besaban…
Hoy como ayer, gitana, muerte mía,
qué bien contigo a solas,
por estos aires de Granada, ¡mi Granada!”
Se le vio caminar…
Labrad, amigos,
de piedra y sueño, en el Alhambra,
un túmulo al poeta,
sobre una fuente donde llore el agua,
y eternamente diga:
el crimen fue en Granada, ¡en su Granada!


Esta poesía se la escribe Antonio Machado a Federico García Lorca, y en ella trata su muerte, explicando los últimos momentos del poeta antes de ser fusilado, y los sentimientos de él y de Lorca.


¿Tenía Dalí el factor “g”?

NEW ENGLAND, 1981- Get it up, Motivación Instrumental….

Get it up, 1981, New England. Motivación Instrumental, Sustratos Motivacionales, Estructuras y Expectativas…..


                                                                          The whole world is looking at me now

I’m getting so high

Yes I’m certain higher

And take my air balloon

Higher than anyone

Further than anyone

I know I can do it

Yes we know you can do it

So don’t fall off!

You’ve never lived before

You’re too higher….

You’re too higher…

And there’s no top

you said that you can’t go

if you keep going up

you ain’t imaging? over


  
John Fannon (guitarra & voz)
 Hirsh Gardner (batería y voz)
Jimmy Waldo (teclados y voz) 
Gary Shea (bajo)



http://www.terra.es/personal2/aalbasbe/Pomp/new_england.htm


¿NOS DESPERTAMOS? O ¿NOS DESPIERTAN? ¿Nos dormimos? o ¿Nos duermen?

¿Qué procesos motivan y dirigen la conducta instrumental?
Las dos aproximaciones que seguiremos:
  • Que intentan identificar y explicar la estructura asociativa del condicionamiento instrumental de Thorndike y Pavlov

Se centra en los mecanismos moleculares y no se preocupa de la meta a largo plazo o la función de la conducta instrumental.

  • Cómo la conducta está regulada en vista de las limitaciones o restricciones creados por los procedimientos de condicionamiento instrumental de Skinner

Se centra en los aspectos molares de la conducta y considera los efectos del condicionamiento instrumental como manifestaciones de procesos de maximización u optimización.

  1. Thordinke y Pavlov, mecanismos moleculares, estructura asociativa
  2. Skinner, aspectos molares, manifestaciones de maximización u optimización



Vamos a comprobar cómo estudiar los sustratos motivacionales de la conducta instrumental se han movido con osadía para estudiar concepciones nuevas cuando las viejas ideas no pudieron dar respuestas a los retos de los nuevos hallazgos empíricos.


Parece ser que la conducta instrumental ocurre porque la persona está motivada. ¿Qué significa estar motivado para obtener el reforzador?
La motivación de la respuesta instrumental fue considerada por Thorndike incluyó un análisis de la estructura asociativa del condicionamiento instrumental, siendo compatible con la tradición teórica del condicionamiento pavloviano. Desde  una perspectiva molecular. Se centra en:
  1. las respuestas individuales
  2. sus antecedentes estimulares
  3. consecuencias específicas

  • Esta aproximación asociativa examina el aprendizaje instrumental en preparaciones conductuales aisladas. 
  • Las asociaciones pueden encontrar sustento en el sistema nervioso
  • La aproximación asociativa proporciona un marco para estudiar los mecanismos neurales del condicionamiento instrumental.

La aproximación alternativa a los procesos motivacionales en el aprendizaje instrumental es la regulación conductual, desarrollada dentro de la tradición skineriana, considera el condicionamiento instrumental en el contexto más amplio de las múltiples cosas que los organismos están constantemente haciendo. Es una perspectiva molar. Se interesa en cómo un procedimiento de condicionamiento instrumental establece:
  1. los límites  al libre flujo de actividades 
  2. las consecuencias conductuales de estas restricciones
Cada aproximación ha identificado temas importantes pero ninguna se sostiene sola:
  • Perspectiva asociacionista, molecular, 
  • Perspectiva de la regulación conductual, molar
La estructura asociativa del condicionamiento instrumental

Thorndike reconoció que el condicionamiento instrumental incluye algo más que una respuesta y un reforzador. La respuesta instrumental ocurre en presencia de estímulos particulares. Deben considerarse tres sucesos en el análisis del condicionamiento instrumental:
  1. El contexto estimular (E)
  2. La respuesta instrumental (R)
  3. La consecuencia de las respuesta  o reforzador (C)
Skinner también asumió la noción de los tres sucesos y describió el condicionamiento instrumental en términos de una contingencia de tres términos que incluía E, R y C.

Diagrama del condicionamiento instrumental. La respuesta instrumental
(R) sucede en presencia de estímulos distintivos (E) y produce
la consecuencia reforzante (C). Esto permite el establecimiento de varios tipos
diferentes de asociaciones.
Pueden producirse asociaciones entre cada uno de estos ejemplos:
  1. Estímulo discriminativo y respuesta ——–  Asociación E-R
  2. Estímulo discriminativo y consecuencia — Asociación E-C
  3. Respuesta y consecuencia ——————– Asociación R-C
La asociación E-R y la ley del efecto 
La estructura básica de un procedimiento de condicionamiento instrumental permite el desarrollo de varios tipos diferentes de asociaciones. 
  1. Asociación entre los estímulos contextuales E y la respuesta instrumental R. Asociación E-R postulada por Thorndike como clave del aprendizaje instrumental en su ley del efecto. 
  2. De acuerdo con la ley del efecto, el papel del reforzador o de la consecuencia de la respuesta es establecer una asociación entre las claves contextuales E y la respuesta instrumental R. Una vez establecida la sería responsable de la ocurrencia de la respuesta instrumental. 
  3. El ímpetu básico o motivación para la respuesta instrumental era la activación de la asociación E-R mediante la exposición del sujeto a los estímulos en presencia de los cuales la respuesta instrumental fue previamente reforzada.
Una implicación importante de la ley del efecto es que el condicionamiento instrumental no incluye el aprendizaje acerca del reforzador (C) o la relación entre la respuesta y la consecuencia reforzante (la asociación R-C).
  • La ley del efecto asume que el único papel del reforzador es crear una asociación E-R
  • Que el reforzador en sí mismo no es una parte o no participa en esta asociación. 
  • Asunción contraintuitiva y poco apreciada
La asociación E-R fue postulada por Thorndike como la clave del aprendizaje instrumental en su ley del efecto:
Ley del efecto:
  1. Si una señal en presencia de un estímulo es seguido por un evento satisfactorio la asociación E-R se fortalecerá.
  2. Si una respuesta es seguida por un evento molesto, la asociación E-R se debilitará.
De acuerdo con la ley del efecto:
  • El papel del reforzador de la respuesta establecer una asociación entre las claves contextuales E y la respuesta instrumental R.
  • Una vez establecida esta asociación E-R sería la responsable de la ocurrencia de la respuesta instrumental.
  • La ley del efecto asume que el único papel del reforzador es crear una asociación E-R.
Expectativa de recompensa y la asociación E-C
Los animales humanos y no humanos llegan a esperar que algo importante ocurrirá cuando se encuentran con un estímulo que señalan un acontecimiento significativo o que les permite predecir que el acontecimiento ocurrirá. El condicionamiento pavloviano es el proceso básico del aprendizaje de señales. Por tanto  una manera de buscar la expectativa de recompensa es considerar cómo los procesos pavlovianos pueden estar involucrados en el aprendizaje instrumental.
  1. La especificación de una respuesta instrumental asegura que el participante siempre experimentará ciertos estímulos (E) en conexión con la realización de la respuesta.
  2. Estos estímulos pueden incluir el lugar donde se va a realizar la respuesta de la textura del objeto que el sujeto va a manipular, o las claves discriminativas olfatorias o visuales.
  3. Cualesquiera que sean los estímulos, el reforzamiento de la respuesta instrumental producirá inevitablemente un emparejamiento entre E y el reforzador o consecuencia de la respuesta (C).
  4. Estos emparejamientos proporcionan el potencial para el condicionamiento clásico y el establecimiento de una asociación entre E y C. 
Hull propuso una explicación influyente del papel del condicionamiento clásico en la conducta instrumental que más tarde fue elaborada por Spence. Su asunción básica era que durante el curso del condicionamiento instrumental, la respuesta instrumental llega a ser instigada o motivado por dos factores
  1. La presencia del E llega a evocar la respuesta instrumental directamente por asociación con R, mediante la asociación thonrdikiana E-R.
  2. La actividad instrumental también llega a realizarse en respuesta a la expectativa de recompensa debido al establecimiento de una asociación R-C.

La teoría moderna de los dos procesos

La teoría moderna de los dos procesos asume:
  1. Que hay dos tipos de aprendizaje, el condicionamiento pavloviano y el instrumental. 
  2. Que estos dos procesos están están relacionados de una forma especial:

  •  Durante el curso del condicionamiento instrumental, los estímulos (E)  -en presencia de los cuales se refuerza la respuesta instrumental- se presume que llegan a asociarse con la consecuencia de la respuesta (C).

    A través de la asociación E-C, el estímulo E llega a motivar la conducta instrumental, mediante la activación de un estado emocional central. 

    • La naturaleza de ese estado emocional o motivación dependerá de la naturaleza del reforzador. 
    En un procedimiento de condicionamiento instrumental en el que la respuesta sea reforzada por la presentación de comida (u otros reforzadores apetitivos), la asociación E-C activa la expectativa de comida o expectativa de esperanza (Mowrer).
    ¿Cómo se prueba que la expectativa pavloviana motiva la conducta instrumental?
    Rescorla y Solomon apuntaron que si la expectativa pavloviana motiva la conducta instrumental, entonces la presentación de un estímulo pavloviano debería alterar el curso de la respuesta instrumentalmente reforzada.
    • La implicación básica de la teoría moderna de los dos procesos es que la tasa de una respuesta instrumental será modificada por la presentación de un estímulo clásicamente condicionado.
    Esta predicción está basada en las siguientes consideraciones:
    1. Durante el condicionamiento instrumental se asume que se desarrolla un estado emocional central para motivar la respuesta instrumental. Reforzar una presión de palanca con comida, crea la expectativa de comida y la emoción de esperanza. 
    2. Se asume que los estímulos clásicamente condicionados elicitan estados emocionales centrales. Un EC+ para la comido también elicitará esperanza de obtener comida. 
    3. En consecuencia la presentación de un EC+ clásicamente condicionado con comida durante la ejecución de una respuesta reforzada con comida debería aumentar  la esperanza que fue creada por la contingencia instrumental e incrementar la respuesta.
    Resultados consecuentes con la teoría moderna de los dos procesos.
    Se utiliza un diseño experimental denominado experimento de transferencia de control que consta de tres fases:
    1. Primera fase incluye un condicionamiento instrumental de una respuesta operante utilizando algún programa de reforzamiento positivo o negativo.
    2. Segunda fase se entrena a los participantes con un condicionamiento clásico, en el cual se asocia un EC explícito con la presencia o ausencia de un estímulo incondicionado.  Es necesario que el procedimiento de condicionamiento instrumental no esté en funcionamiento durante la fase de condicionamiento pavloviano.
    3. Tercera fase es la fase de transferencia crítica. Aquí se permite a los participantes que realicen la respuesta instrumental, y se presenta periódicamente el EC de la fase 2 para observar su efecto en la tasa de la conducta instrumental.
    La teoría moderna de los dos procesos ha favorecido la investigación utilizando el diseño de transferencia de control:

    • REC– procedimiento de la respuesta emocional condicionada.
    1. Primero son entrenados a presionar la palanca de respuesta por un reforzamiento con comida
    2. Un estímulo discreto se empareja repetidamente con una descarga

    • Este estímulo de miedo condicionado clásicamente se presenta  mientras los sujetos están presionando la palanca para la comida.

    1. La presentación del EC+ que señala la descarga produce una disminución en la tasa de respuesta de presión de palanca.
    • Esto sucede porque el EC pavloviano elicita un estado emocional (miedo) que es contrario  a la emoción o expectativa (esperanza) que se establece en el condicionamiento instrumental con comida.

    ¿Cómo responderían estos mismos sujetos si se les presentase un EC pavloviano que hubiese sido emparejado con comida (y presumiblemente elicitase “esperanza”)?

    • La emoción elicitada por el EC pavloviano sería compatible con la emoción establecida durante el condicionamiento instrumental, y debería ocurrir un aumento en la respuesta durante la señal pavloviana.

    Interacciones de respuesta en los experimentos de transferencia de control.
    Los estímulos condicionados clásicamente elicitan:

    1. Estados emocionales
    2. Respuestas abiertas

    En consecuencia:

    • Un estímulo clásicamente  condicionado puede influir sobre  la conducta instrumental a través de las  respuestas  abiertas que elicita.

    Un estímulo condicionado clásicamente hace que el animal permanezca quieto.La respuesta instrumental es saltar hacia delante y hacia atrás en una caja de lanzadera.La presentación del EC disminuirá la respuesta instrumental simplemente debido a que la tendencia a dejar de moverse elicitada por el ÉC interferirá en la conducta de salto.

    • No es necesaria la apelación a estados centrales emocionales para explicar este resultado.
    • La apelación a estados centrales emocionales también es innecesaria si un estímulo condicionado clásicamente elicitase respuestas abiertas que fuesen similares a la conducta instrumental.
    • En este caso la presentación de un EC se añadirían a las respuestas que se están realizando porque el animal recibe reforzamiento instrumental.
    El interés por la posibilidad de que los resultados de los experimentos de transferencia de control sean debidos a que los ECs pavlovianos elicitan respuestas abiertas que interfieren en o facilitan la conducta requerida por el reforzamiento instrumental ha hecho que los investigadores diseñen varias estrategias experimentales  para eliminar estas interacciones de respuesta.
    Estas estrategias han logrado mostrar muchos efectos de transferencia de control no están producidos por interacciones entre respuestas abiertas. Las respuestas abiertas condicionadas clásicamente han sido importantes en algunos experimentos de transferencia de control.


    ¿Estados emocionales centrales condicionados o expectativas específicas de recompensa?
    La teoría moderna de los dos procesos asume que el condicionamiento clásico media la conducta instrumental a través del condicionamiento de estados emocionales centrales como la esperanza (en el caso del reforzamiento positivo) o el miedo (en el caso del reforzamiento negativo). Los animales también adqieren expectativas específicas de recompensa en lugar de estados emocionales centrales más generales durante el condicionamiento instrumental y clásico.
    Kruse, Overmier, Konz y Rokke, 1983, realizaron el siguiente estudio:

    1. EIs: Utilizaron bolitas sólidas de comida y una solución azucarada 
    2. EC+: para la comida que facilitaba la respuesta instrumental reforzada con comida mucho más que la conducta instrumental reforzada son la solución azucarada. 
    3. EC+: para el azúcar incrementaba la respuesta instrumental reforzada con azúcar mucho más que la conducta instrumental reforzada con bolitas de comida.
    • El aprendizaje de expectativa específica de recompensa es una alternativa importante a la teoría moderna de los dos procesos para explicar ciertos tipos de resultados.

    • Las expectativas de recompensa específicas más que un estado central emocional general de esperanza determinaron  los resultados.

    Se indica que en ciertas circunstancias los animales adquieren expectativas específicas del reforzador en lugar de un estado emocional más general de esperanza durante el condicionamiento instrumental y clásico.


    Esta alternativa está basada en la asunción de que el condicionamiento instrumental incluye el aprendizaje de una asociación E-C.

    Estas estrategias han demostrado que muchos efectos de transferencia de control no están producidos por respuestas abiertas.

    Relaciones R-C y E(R-C) en el condicionamiento instrumental
    Hemos visto dos asociaciones diferentes que pueden motivar la conducta instrumental:

    1. E-R: Asociación de Thorndike
    2. E-C: que activa una expectativa específica de recompensa o un estado emocional

    Razones por las que no se puede explicar toda motivación de la conducta instrumental en términos de estas dos asociaciones:

    1. Ni la asociación E-R ni la asociación E-C incluyen una conexión directa entre la respuesta R y el reforzador, o consecuencia de la respuesta, C.

    La consecuencia de la respuesta C no está directamente representada en la asociación E-R, o asociada de cualquier otra forma con la respuesta.

    Si se le pregunta a alguien por qué está realizando una respuesta instrumental, su contestación sería que esperaba que la respuesta (R) tenga como resultado el reforzador C.

    La intuición sugiere que la conducta instrumental involucra asociaciones R-C.

    A pesar de que las explicaciones informales de la conducta instrumental enfatizan las asociaciones R-C, estas asociaciones no existen en los modelos de los dos procesos.

    Otra peculiaridad de la estructura asociativa del condicionamiento instrumental asumido por las teorías de los dos procesos es:

    • E se supone que llega a estar asociado directamente con C en la idea de que el emparejamiento de E con C es suficiente para la ocurrencia de condicionamiento clásico. 

    Los emparejamientos EC-EI no son suficientes para el desarrollo de asociaciones pavlovianas.

    • El EC debe también proporcionar información acerca del EI, o estar de alguna manera relacionado con el EI. 

    En una situación de condicionamiento instrumental, el reforzador C no puede predecirse a partir de E solamente.

    • Más bien C ocurre si el participante realiza la respuesta R en presencia de E. 
    • En consecuencia, el condicionamiento instrumental incluye una relación condicional en la que E es seguido por C sólo si ocurre R. 
    • Esta condicionalidad en la relación de E con C es desestimada en las teorías de los dos procesos.

    Evidencia de asociaciones R-C
    Algunas investigaciones han sugerido que el condicionamiento instrumental lleva al aprendizaje de asociaciones respuesta-consecuencias, y se ha obtenido evidencia de esta posibilidad.
    Una técnica común incluye devaluar el reforzador después del condicionamiento para ver si esto disminuye la respuesta instrumental.
    Esta estrategia es análoga a la estrategia de la devaluación del EI en los estudios de condicionamiento pavloviano. 

    • En el condicionamiento pavloviano la devaluación del EI es utilizada para determinar si la respuesta condicionada está medida por una asociación EC-EI. 
    • Si la devaluación del EI después del condicionamiento disminuye la RC, los investigadores pueden concluir que la RC estaba mediada por la asociación EC-EI. 
    • De forma paralela, la devaluación del reforzador ha sido utilizada para determinar si la respuesta instrumental está medida por una asociación entre la respuesta y la consecuencia reforzante.

    Demostración concluyente, Rescorla y Colwill (1986)

    1. Reforzaron a las ratas por empujar una barra vertical a la izquierda o a la derecha.Responder en cualquier dirección fue reforzado mediante un programa de reforzamiento de intervalo variable 1 minuto (IV1).
    2. Ambas alternativas de respuesta estuvieron siempre disponibles durante las sesiones de entrenamiento.
    3. La única diferencia era que las respuestas en una dirección se reforzaban con bolitas de comida y las respuestas en la otra dirección opuesta se reforzaron siempre con un poco de solución azucarada (sacarosa).

    Después de que ambas respuestas estuvieron bien establecidas, se retiró la barra y se introdujo el procedimiento de devaluación del reforzador.
    Uno de los reforzadores (las bolitas de comida o la solución de sacarosa) fue periódicamente presentado en la cámara experimental, seguido por una inyección de cloruro de litio para condicionar una aversión a ese reforzador.
    Después de que se condicionase una aversión al reforzador condicionado, se volvió a situar la barra vertical, y las ratas recibieron una prueba durante la cual podían libremente empujar la barra a la izquierda o a la derecha pero no se proporcionó ni comida ni sacarosa.

    Era menos probable que las ratas realizasen la respuesta cuyo reforzador había sido convertido en aversivo mediante emparejamientos con el cloruro de litio.

    Si la sacarosa se utilizaba para reforzar las respuestas a la izquierda y se condicionaba entonces una aversión a la sacarosa, era menos probable que las ratas empujasen la barra a la izquierda que a la derecha.
    La supresión selectiva de respuesta que se obtuvo:

    1. Es difícil de explicar a partir de las asociaciones E-C o E-R que se supone que son aprendidas de acuerdo con la teoría de los dos procesos.
    2. Las asociaciones E-R no pueden producir los resultados porque le reforzador no está incluido en la asociación E-R.
    3. En consecuencia, los cambios en el valor del reforzador no pueden alterar la conducta mediada por una asociación E-R.

    Los resultados no pueden explicarse a partir de las asociaciones E-C porque:

    1. Las dos respuestas, empujar la barra vertical a la izquierda o la derecha eran realizados en el mismo sitio, con el mismo manipulando, y por tanto en presencia de los mismos estímulos E externos.
    2. Si la devaluación de uno de los reforzadores hubiese alterado las propiedades de E, se debería haber cambiado las dos respuestas por igual. 
    3. En su lugar, la devaluación de un reforzador debilita selectivamente la respuesta particular que ha sido entrenada con ese reforzador.
    4. Este hallazgo indica que cada respuesta estaba asociada separadamente con su propio reforzador.

    Los sujetos evidentemente aprendieron asociaciones R-C independientes.

    Efectos de la devaluación del reforzador
    en la conducta instrumental. La devaluación
    de un reforzador reduce selectivamente
    la respuesta que fue previamente reforzada con ese
    reforzador.
    La gráfica la ha realizado mi hija Nisamar, quiso ayudarme
    con el exel y le salió esta gráfica.

    Evidencia del aprendizaje de una relación jerárquica E-(R-C)
    Los organismos aprenden a asociar la respuesta instrumental con su consecuencia. Sin embargo, las asociaciones R-C no pueden actuar aisladamente para producir la conducta instrumental. El hecho de que la respuesta instrumental activa una expectativa del reforzador no es suficiente para clarificar lo que produce  la respuesta. Se necesita un factor adicional para activar la asociación R-C sea activada por los estímulos E que están presentes cuando la respuesta es reforzada. De acuerdo con este punto de vista, E no activa R directamente, sino que activa la asociación R-C. El sujeto llega a pensar en la asociación R-C cuando se encuentra con E, y eso motiva que realice la respuesta instrumental.
    Skkiner sugirió que E, R y C en el condicionamiento instrumental están conectados a través de una relación condicional E-(R-C). Esta sugerencia ha sido investigada y se ha acumulado evidencias directas e indirectas que indica el aprendizaje de relaciones E.(R-C) en el condicionamiento instrumental, La mayoría de estas estudios han incluido procedimientos de entrenamiento discriminativo bastante complicados.

    REGULACIÓN CONDUCTUAL

    Los análisis asociativos contemporáneos de la motivación instrumental van más allá que los mecanismos E-R de Thorndike, son parte de la tradición thorndikiana y pavloviana que ve el mundo de la conducta en términos de estímulos, respuestas y asociaciones. Los análisis de regulación conductual están basados en una visión del mundo radicalmente distinta. En lugar de considerar el condicionamiento instrumental en términos del reforzamiento de una respuesta en presencia de ciertos estímulos, los análisis de la regulación conductual se centran en cómo las contingencias instrumentales ponen limitaciones a las actividades de un organismo.
    Antecedentes de la regulación conductual
    Los reforzadores eran considerados como tipos especiales de estímulos. Thorndike caracterizó un reforzador como un estímulo que produce un estado satisfactorio de aconteciminetos. Se realizaron varias propuestas sobre las características especiales que debe tener un estímulo para servir como reforzadores. Tras la ley del efecto de Thorndike los teóricos estaban de acuerdo en que los reforzadores eran estímulos especiales que fortalecían la conducta instrumental.

    La teoría de la respuesta consumatoria
    De Fred Shefffield y sus colegas, asumieron que muchos reforzadores como la comida y el agua, elicitan respuestas incondicionadas típicas de la especie. Se establece que las respuestas consumatorias típicas de la especie son en sí mismas el rasgo crítico de los reforzadores.  Se mostró que la sacarina puede servir como un reforzador efectivo, incluso aunque no tenga ningún valor nutritivo, y no puede satisfacer una necesidad biológica.
    La teoría de la respuesta consumatoria fue una innovación radical debido a que trasladó la investigación de los reforzadores desde tipos especiales de estímulos a tipos especiales de respuestas

    1. Se consideró que las respuestas reforzadoras eran especiales porque involucraban la consumación o el completamiento de una secuencia instintiva de conducta. 
    2. La teoría asumía que las respuestas consumatorias son fundamentalmente diferentes de varias respuestas instrumentales y potenciales, como correr, saltar o presionar una palanca. 
    3. Premack retomó el tema con su teoría y sugirió que las respuestas reforzadoras son especiales sólo debido a que es más probable que ocurran que las respuestas instrumentales a las que siguen.

    El principio de Premack 
    Premack apuntó que las respuestas incluidas en los reforzadores comúnmente utilizados eran actividades que es altamente probable que realicen los animales.
    Experimento:

    1. Los animales en un reforzamiento de comida normalmente están privados de comida y muy probablemente que se dediquen a la conducta de comer.
    2. Las respuestas instrumentales son actividades que normalmente ocurren a una baja probabilidad.

    Una rata experimentalmente ingenua es mucho menos probable que presione la palanca de respuesta en lugar de comer. Premack propuso que esta deferencia en las probabilidades de respuestas es crítica para el reforzamiento.

    El principio de Premack establece:

    • Dadas dos respuestas de diferente probabilidad A y B, la oportunidad para realizar la respuesta de alta probabilidad A después de la respuesta de baja probabilidad B tendrá como resultado el reforzamiento de la respuesta B.
    • (B —A refuerza B). La oportunidad para realizar la respuesta B de baja probabilidad después de la respuesta A de alta probabilidad no dará como resultado el reforzamiento de la respuesta A, (A—B no refuerza A).

    El principio de Premack se centra en la diferencia en la probabilidad de las respuestas instrumental y reforzadora. También se denomina Principio de la probabilidad diferencial.

    1. Comer reforzará la presión de la palanca porque comer es normalmente más probable que presionar la palanca. 
    2. En circunstancias normales, la presión de la palanca no puede reforzar el comer. 
    3. La teoría de Premack sugiere que si por alguna razón presionar la palanca llegase a ser más probable que comer se reforzaría el comer. 
    4. Esta teoría niega que exista una distinción fundamental entre las respuestas reforzadoras e instrumentales. No hay nada intrínsecamente único en los reforzadores; en lugar de ello, la efectividad de un reforzador es un asunto relativo. 
    5. La respuesta reforzante es simplemente más probable que ocurra al comienzo de la nueva respuesta instrumental. 
    6. Esta propiedad relativa de los reforzadores hace posible utilizar una amplia variedad de respuestas como reforzadores.
    En el estudio de Premack con niños, observó que algunos niños preferían comer
    caramelos que jugar al pinball, otros preferían jugar al pinball.
    En la fase 2 se probó a los niños con uno de dos procedimientos.
    En un procedimiento, comer estaba especificado como la respuesta reforzante,
    y jugar al pinball era la respuesta instrumental.
    Esto es que los niños tenían que jugar al pinball para obtener acceso
    a los caramelos.
    La pregunta era si todos los niños aumentarían el tiempo dedicado
    a jugar al pinball.
    En concordancia con la teoría de Premack sólo aquellos
    niños que prefirieron comer a jugar al pinball mostraron un efecto
    del reforzamiento en estas circunstancias.

    En otra prueba los papeles de las dos respuestas se intercambiaron: 

    1. comer era la respuesta instrumental 
    2.  jugar al pinball era la respuesta reforzadora. 

    Los niños tenían que comer caramelos para acceder a la máquina de pinball. En esta situación sólo aquellos niños que preferían jugar al pinball a comer mostraron un efecto de reforzamiento.

    Cuando una rata está privada de agua (Experimento 1), bebe más que corre.
    En consecuencia beber refuerza correr, pero correr no refuerza
    beber. Cuando una rata no está privada de agua (Experimento 2), corre más que bebe.
    ahora correr refuerza beber, pero beber no refuerza correr.

    Premack comprobó su teoría en estudios con las conductas de correr y beber en ratas. Alteró las probabilidades de beber y de correr en la rueda cambiando las condiciones de privación. En un procedimiento, las ratas estaban privadas de agua pero no de oportunidad de correr en la rueda. En estas circunstancias beber era más probable que correr, y la oportunidad de beber era efectiva  en el reforzamiento de correr . en el segundo procedimiento, las ratas no estaban privadas de agua. En estas circunstancias, era más probable correr en la rueda que beber. Ahora la oportunidad para correr en la rueda podía reforzar beber, pero beber no podía utilizarse para reforzar el correr. Este estudio muestra que correr y beber podían ser utilizadas de forma intercambiable como respuestas instrumentales y reforzadoras, dependiendo del estado del animal de privación de agua. Nada inherente a una respuesta o la otra la hacía ser un reforzador.
    El principio de Premack supuso un avance sobre el reforzamiento. Se consideró a los reforzadores como respuestas más que como estímulos, ampliando el rango de cosas que los investigadores empezaron a utilizar como reforzadores. 

    • Con este principio cualquier actividad podía servir como un reforzador siempre y  cuando fuera más probable que la respuesta instrumental. 
    • La probabilidad diferencial como clave para el reforzamiento preparó el terreno para las aplicaciones de los procedimientos de reforzamiento a todo tipo de problemas humanos.
    • Sin embargo, los problemas que apartaron los posteriores desarrollos teóricos del principio de Premack:

    1. la medida de la probabilidad de respuesta
    1. mirada estrecha a los procedimientos de condicionamiento instrumental

    Aplicación del principio de Premack
    Utilizar los procedimientos de reforzamiento para favorecer una conducta apropiada en niños requiere identificar un reforzador efectivo. La comida es a menudo una buena elección, pero consideraciones prácticas y éticas han fomentado que los investigadores identifiquen otras formas de reforzamiento. El principio de Premack ha sido de gran ayuda en este tema, porque sugiere que cualquier actividad que es más probable que la respuesta que va a ser reforzada puede servir como un reforzador efectivo.
    Los niños, como los adultos, varían en sus actividades preferidas. Algunos prefieren jugar a la pelota después del colegio; otros prefieren charlar por teléfono con sus amigos. Midiendo la probabilidad relativa de las diferentes actividades para cada niño, los procedimientos de reforzamiento pueden ser personalizados para aprovechar las preferencias únicas de respuesta de cada individuo. Esto puede motivar que algunas repuestas bastante inusuales sirvan como reforzadores.

    • Las respuestas de alta probabilidad pueden servir para reforzar respuestas de baja probabilidad, si bien las respuestas reforzadoras no son características de la conducta normal.

    La hipótesis de la privación de respuesta
    En la mayoría de los procedimientos de condicionamiento instrumental, la probabilidad momentánea de una respuesta reforzada se mantiene a un nivel alto mediante la restricción del acceso a la respuesta reforzante. Una rata presionando una palanca para conseguir comida, normalmente entra en la situación experimental no habiendo comido mucho y no recibe una comida completa por cada respuesta de presión de palanca. Estas limitaciones de la respuesta reforzante son muy importantes. Si un investigador diese a la rata una comida completa por presionar la palanca una sola vez, lo normal es que no incrementara mucho su tasa de respuesta, Las restricciones en la oportunidad de realizar la respuesta reforzadora sirven para aumentar su efectividad como reforzador.
    Premack reconoció la importancia de restringir el acceso a la respuesta reforzadora para el condicionamiento instrumental. Caracterizó la privación de respuesta no sólo como una condición necesaria para el reforzamiento sino como algo adjunto al principio de la probabilidad diferencial. Desde su punto de vista, la respuesta reforzadora todavía tiene que ser una conducta más probable que la respuesta instrumental. Timberlake y Allison (1974) por el contrario abandonaron el principio de la probabilidad diferencial y argumentaron que la restricción de la respuesta reforzadora era el factor crítico para el reforzamiento instrumental. Esta propuesta es denominada hipótesis de la privación de respuesta.
    En pruebas decisivas de la hipótesis de la privación de respuesta, varios investigadores encontraron que incluso el acceso a una respuesta de baja probabilidad puede servir como un reforzador siempre y cuando los sujetos tuvieran la restricción de realizar esa respuesta. Por tanto, con la privación de respuesta, incluso una respuesta de baja probabilidad puede utilizarse  para reforzar una respuesta de alta probabilidad. Este conjunto de  condiciones viola seriamente el principio de Premack y muestra que la privación de respuesta es más básica para la motivación de la conducta instrumental que la probabilidad diferencial de la respuesta.
    La hipótesis de la privación de respuesta proporciona un nuevo principio para predecir lo que servirá como reforzador efectivo. También proporciona un nuevo procedimiento para  crear reforzadores -restringir el acceso a la respuesta reforzadora-. Restringir el acceso a la respuesta reforzadora es inherente a todos los procedimientos de condicionamiento instrumental, el reforzador se retiene hasta que ha sido ejecutada la respuesta instrumental especificada. La hipótesis de la privación de respuesta apunta que este rasgo definicional del condicionamiento instrumental es crítico para producir un efecto reforzamiento.
    Los puntos de vista tradicionales sobre el reforzamiento asumen que un reforzador es algo que existe independientemente de un procedimiento de condicionamiento instrumental. La hipótesis de privación de respuesta hace explícita la idea radicalmente diferente de que un reforzador es producido por la contingencia instrumental en sí misma. El principio de Premack fue la primera teoría que sugirió que los reforzadores no existen en sentido absoluto. Que una respuesta fuera reforzador dependía de su probabilidad de ocurrencia en comparación con la de la respuesta instrumental, pero el principio no implica que el procedimiento de condicionamiento instrumental en sí mismo fuera responsable de la creación de un reforzador. Posteriores desarrollos de las teorías de regulación conductual han establecido cómo las contingencias instrumentales crean los reforzadores y los efectos del reforzamiento.

    Regulación conductual y el punto de deleite conductual
    La regulación conductual se estudia en relación a:

    1. la teoría del proceso oponente de la motivación
    2. con el papel del aprendizaje en la homeostasis fisiológica (mecanismos que sirven para mantener aspectos fundamentales del cuerpo como el nivel de azúcar en sangre o la temperatura) dentro de límites aceptables.

    • Las teoría de la regulación conductual asumen que existen mecanismos homeostáticos en la conducta

    En el contexto de la regulación conductual, se propone que los organismos tienen una distribución de actividades preferidas u óptima que luchan por mantenerse frente a los cambios o interrupciones.

    • Las teorías de la regulación conductual se centran en el grado en que la contingencia instrumental respuesta-reforzador rompe la estabilidad conductual y empuja al individuo fuera de su distribución de actividades preferida u óptima.

    Si se perturba el balance de actividades preferido u óptimo, se asume que la conducta cambiará para corregir la desviación del nivel homeostático. Esta asunción básica de la regulación conductual es simple. Sin embargo:

    • Numerosos factores pueden afectar a la forma en que los organismos afrontan los desafíos impuestos sobre sus distribuciones preferidas u óptimas de respuesta.



    El punto de deleite conductual
    Cada situación proporciona varias oportunidades de respuesta, En una cámara experimental, por ejemplo, un animal puede correr en una rueda, beber, comer, rascarse, etc….. La teoría de la regulación conductual asume que si los organismos son libres para distribuir sus respuestas entre las alternativas disponibles, lo harán de la forma en que sea más cómodo o en algún sentido óptimo para ellos. Esta distribución de respuesta define el punto de deleite conductual.
    La distribución particular de actividades que constituye el punto de deleite variará de una situación a otra. Por ejemplo, si correr en una rueda se hace muy difícil o el participante está severamente privado de agua, la probabilidad relativa de correr y beber cambiará. Sin embargo, para una circunstancia dada, el punto de deleite conductual como se revela en las elecciones sin restricciones entre las alternativas de respuestas se asumen que es estable a lo largo del tiempo.

    • El punto de deleite conductual puede identificarse mediante la frecuencia relativa de ocurrencia de todas las respuestas de un organismo en una situación sin restricciones. 

    Para simplificar el análisis, nos centramos sólo en dos respuestas. Considérese cómo un estudiante de instituto puede distribuir sus actividades entre estudiar y ver la televisión.

    Imposición de una contingencia instrumental
    La teoría de la regulación conductual establece que los organismos defenderán el punto de deleite conductual contra los cambios, exactamente como la regulación fisiológica incluye la defensa de los cambios de un punto fisiológico establecido. Lo interesante es que la línea de base libre del punto de deleite conductual no siempre puede ser restablecida después de que se haya introducido una contingencia  instrumental. Una contingencia instrumental no permite volver al punto de deleite.
    El punto de deleite proporciona la motivación para la conducta instrumental. La teoría de la regulación conductual asume que volver al punto conductual establecido continúa siendo una meta en la distribución de las respuestas. Cuando esta meta no puede alcanzarse, la redistribución de las respuestas entre las conductas instrumental y contingente llega a ser una cuestión de ajuste. La tasa de una respuesta se mantiene lo más cerca posible del nivel preferido sin cambiar la otra respuesta demasiado de su nivel preferido.

    Datos hipotéticos del reforzamiento social y la conducta positiva del niño.
     El punto de deleite conductual para el niño está indicado en el punto blanco
    La línea azul representa la tasa de reforzamiento social para
     la conducta positiva que funciona antes de la introducción de un
     procedimiento terapéutico.
    La línea verde representa la tasa de reforzamiento social para la conducta positiva
     establecida por el procedimiento de la terapia de conducta.
    El punto de cada línea representa el equilibrio para cada programa.



    Stadon propuso un modelo de desviación mínima de regulación conductual para resolver el dilema de las restricciones del programa

    • Según este modelo la introducción de una contingencia respuesta-reforzador provoca que los organismos redistribuyan sus conductas entre respuestas instrumentales y contingentes de manera que se minimice la desviación total de las dos respuestas con respecto al punto óptimo o de deleite.  

    Para situación en que el punto de deleite conductual de la línea base libre no pueda alcanzarse, el modelo de desviación mínima proporciona un punto de vista sobre cómo los organismos se adaptan para lo siguiente mejor.
    Explicación de los efectos del reforzamiento
    La regulación conductual incluye la defensa de un punto de deleite conductual frente a las restricciones de respuesta impuestas por una contingencia respuesta-reforzador. Esta defensa puede requerir establecerse en algún punto cercano pero no exactamente en el punto de deleite de la línea base. ¿Cómo llevan estos mecanismos a aumentar la conducta instrumental en los procedimientos típicos de condicionamiento instrumental?
    Un efecto de reforzamiento se identifica por un incremento en la ocurrencia de una respuesta instrumental sobre el nivel de esa conducta en ausencia de la contingencia respuesta-reforzador. El acceso al reforzador está restringido; para tener una mayor oportunidad de ejecutar la respuesta instrumental,  la persona tiene que realizar más respuestas instrumentales. Por tanto, el aumento en la respuesta instrumental (un efecto del reforzamiento) es el resultado de mecanismos reguladores de la conducta que funcionan para minimizar las desviaciones del punto de deleite conductual. Esta es la explicación de cómo las restricciones del programa producen efectos de reforzamiento sólo considerando las respuestas instrumental y reforzadora.
    Contingencias de reforzamiento en un contexto conductual más amplio.
    Las contingencias instrumentales no suceden en un vacío conductual o un tubo de ensayo. Ocurren en el contexto de una variedad de respuestas y reforzadores que puede obtener la persona. Ese contexto conductual más amplio puede influir significativamente en la forma en que la persona se ajusta a las restricciones de un programa. Por ejemplo, si un estudiante disfruta escuchando la radio tanto como viendo la televisión, las restricciones en el acceso a la televisión pueden no incrementar la conducta de estudio. El estudiante puede elegir escuchar la radio. o leer libros de cómics o ir al cine. Cualquiera de estas opciones debilitará la contingencia instrumental. Si el estudiante opta por escuchar la radio o ir al cine en lugar de ver la televisión, no aumentará la conducta de estudio como para conseguir su cantidad de tiempo preferida de televisión.
    Se ilustra que la predicción precisa de los efectos de un procedimiento de condicionamiento instrumental requiere la consideración de un contexto más amplio de opciones de respuesta del organismo. 

    • Centrarse sólo en la respuesta instrumental y sus estímulos antecedentes y consecuentes (esto es, la estructura asociativa de la conducta instrumental) desatiende el contexto conductual más amplio en el que operan las contingencias instrumentales. 

    Es importante considerar ese contexto conductual más amplio y que puede influir de forma significativa en el resultado de los procedimientos particulares de reforzamiento instrumental. El efecto de un procedimiento de condicionamiento instrumental particular puede depender de qué fuentes de reforzamiento alternativas están disponibles para el organismo, cómo esos otros reforzadores están relacionados con el reforzador particular implicado en la contingencia instrumental, y los costes de obtener esos reforzadores alternativos. Estos aspectos han sido considerados de forma sistemática con la aplicación de conceptos económicos al problema de la distribución de respuesta.


    Conceptos económicos y distribución de respuesta
    La aproximación del punto de deleite redefinía el tema fundamental del análisis de la motivación instrumental. Desvió la atención de la noción de que los reforzadores eran estímulos especiales que estaban involucrados en relaciones asociativas especiales con la respuesta instrumental y sus antecedentes. Con la aproximación del punto de deleite, la cuestión fundamental de la motivación instrumental y sus antecedentes se planteó de otra forma: “¿Cómo las restricciones de un procedimiento de condicionamiento instrumental producen cambios en la conducta?”.
    Los psicólogos se esfuerzan por comprender los cambios en las conductas en términos de preferencias preexistentes y restricciones para satisfacer esas preferencias. Bickel, Green y Vuchinich advirtieron: “La economía es el estudio de la distribución de la conducta dentro de un sistema de restricciones” En el área económica las restricciones en la conducta  se imponen por los ingresos de una persona y el precio de los bienes que se quiere obtener. En las situaciones de condicionamiento instrumental, las restricciones están proporcionadas por el número de respuesta que un organismos es capaz de realizar y el número de respuestas requerido para obtener cada reforzador.
    Los psicólogos ha llegado a interesarse por las semejanzas entre las restricciones económicas en el mercado y las restricciones del programa en el condicionamiento instrumental. 
    Demanda del consumidor
    Es fundamental para la aplicación de los conceptos económicos al problema del reforzamiento:
    Relación curva de la demanda: la relación entre el precio de una comodidad y cuánto se obtiene. 
    Elasticidad de la demanda: el grado en el cual el precio influye en el consumo.
    Demanda del consumidor: este concepto puede utilizarse para analizar el reforzamiento instrumetnal considerando el número de respuestas realizadas o el tiempo empleado en responder como análogo al dinero.
    Precio de un reforzador: tiempo o el número de respuestas requerida para obtener el reforzador. El precio está determinado por el programa de reforzamiento. Contingencias instrumentales.
    Gasto: conducta instrumental.
    Meta: comprender cómo la conducta instrumental (el gasto) está controlada por las contingencias instrumentales (los precios).

    Determinantes de la elasticidad de la demanda
    La aplicación de conceptos económicos al análisis del condicionamiento instrumental sería de poco valor si no proporcionase nuevas ideas sobre los mecanismos de reforzamiento. Como se ha podido demostrar, los conceptos económicos han ayudado a identificar tres factores principales que influyen en cómo las restricciones de un programa moldean la redistribución de la conducta. Cada uno de estos factores determina el grado de elasticidad de la demanda, o el punto hasta el que los incrementos en el precio producen una disminución en el consumo.
    Factores:

    1. Disponibilidad de sustitutos
    2. Rango de precios
    3. Nivel de ingresos

    Disponibilidad de sustitutos
    El factor que más influye en la elasticidad de la demanda. El grado en que los aumentos en el precio de un artículo producen una disminución en el consumo depende de la disponibilidad (y precio) de otros bienes que pueden utilizarse en sustitución del artículo original. 

    • La disponibilidad de sustitutos aumenta la sensibilidad del artículo original a los precios altos.
    1. El café y el té son buenos sustitutos, ambos tienen cafeína para mucha gente el té resulta ser un buen sustituto del café. En consecuencia si el precio del café aumenta considerablemente, cambiarán al té. La elasticidad de la demanda para el café está influida por la disponibilidad del té como un sustituto para el café.
    2. Frente al café, la cantidad de gasolina que compra la gente no está muy influida por el precio, debido a que no hay sustitutos disponibles adecuados a la gasolina para hacer funcionar un coche.

    La disponibilidad de las drogas sustitutas en la elasticidad de la demanda de comida fue investigada por Foltin (1999) en un experimento llevado a cabo con babuinos.

    1. Los sujetos tenían que presionar una palanca de respuesta para obtener bolitas de comida.
    2. El precio de las bolitas se varió exigiendo diferente número de  presiones de palanca por cada bolita (utilizando un programa de razón fija). 
    3. Foltin estaba interesado en si la ingesta de comida disminuiría a medida que aumentase su precio y no la disponibilidad de reforzadores alternativos influirá sobre esta función. 

    En diferentes condiciones experimentales, las respuestas en una segunda palanca no tuvieron consecuencias o producían una solución de  azúcar o soluciones con diferentes concentraciones de cocaína. 

    1. La disponibilidad de estos reforzadores alternativos siempre requería dos presiones (RF2) en la palanca alternativa. 
    2. En general, en los aumentos en el precio de la comida tuvieron como resultado un menor número de bolitas obtenidas. 
    3. Y los que es más importante, la disponibilidad de cocaína en la palanca alternativa de respuesta aumentó la elasticidad de la demanda de comida. Este efecto fue particularmente llamativo en el babuino nº 3.

    Para el babuino nº 3 aumentar el precio de la comida tuvo muy poco efecto si la palanca de respuesta alternativa no producía nada o proporcionaba dextrosa (una solución de azúcar). 

    1. Sin embargo, cuando la palanca de respuesta alternativa producía cocaína, el aumento en el precio de la comida tuvo como resultado la caída precipitada en la respuesta reforzada con comida. 
    2. El efecto mayor se obtuvo con la concentración intermedia de cocaína. 
    3. Con esta concentración, la obtención de cocaína en la palanca alternativa aumentó notablemente la elasticidad de la demanda. 
    4. Además, muestra cómo la metodología proporcionada por los conceptos económicos conductuales puede utilizarse para identificar reforzadores sustituibles. 

    Para el babuino nº 3 una concentración intermedia de cocaína era un excelente sustituto para la comida. 
    Una fuente de reforzadores sustituibles es la disponibilidad de un reforzador fuera de la sesión experimental. Cuando se utiliza comida como reforzador en experimentos con animales de laboratorio, a los sujetos se les da normalmente una cierta cantidad de comida cada día. La parte de esta ración que no comen durante la sesión experimental se les da más tarde como comida libre en la jaula hogar. Esta situación se denomina una economía abierta. Esta se contrapone con una economía cerrada en la cual los sujetos no reciben alimentación suplementaria. En una economía cerrada, si los sujetos no obtienen comida diaria durante la sesión experimental, tienen que esperar hasta la siguiente sesión para completarla. En general, la elasticidad de la demanda es mayor es situaciones de economía abierta que en economías cerradas.


    Rango de precios
    Determinante importante de la elasticidad de la demanda es el rango de precios de la comodidad. generalmente, un aumento en el precio tienen menos efecto en precios bajos que en precios altos. Por ejemplo el coste de un caramelo. No es probable que un incremento del 10% en el precio de 50 céntimos a 55 desaliente el consumo. Pero si el caramelo cuesta 5 euros, un incremento del 10% a 6 podría muy bien desalentar a los consumidores.
    En un rango de precios bajos la demanda de comida no es elástica (no aumenta el número de respuestas instrumentales para conseguir la comida). El incremento de precio y programas de RF altos, el consumo de comida disminuyó.


    Nivel de ingresos
    Factor que determina la elasticidad de la demanda es el nivel de ingresos. Cuanto más salario, menos se desanimará un consumidor con los incrementos en el precio. Esto es cierto para los  reforzadores obtenidos en los programas de reforzamiento. En estudios de condicionamiento instrumental, el número de respuestas o la cantidad de tiempo disponible para responder corresponde a los ingresos. Éstos son recursos que un organismo puede utilizar para responder a las restricciones de un programa. Cuantas más respuestas o tiempo tengan disponible los animales, menos estará su conducta influida por los aumentos en el coste del reforzador.


    Problemas con las aproximaciones de regulación conductual
    Están basadas en que la asunción de que los individuos buscan la defensa de una combinación de actividades óptima o preferida, o punto de deleite.

    1. Este punto de deleite se defiende mediante la redistribución de la conducta entre las respuestas instrumentales y reforzadoras u optando por sustituir los reforzadores. 
    2. El punto de deleite es una característica molar de la conducta. 
    3. Se basa en una medida de cada respuesta acumulada  a lo largo de un bloque temporal amplio (como puede ser una sesión entera de línea de base libre). 

    Un punto de deleite molar dado puede  alcanzarse de varias formas.

    1. En el ejemplo hipotético del estudiante se le permitía elegir entre ver la televisión y estudiar durante el período de línea de base libre y terminó viendo la televisión durante 60 minutos y estudiando 15. 
    2. Esto podía haberse alcanzado viendo todo el tiempo la televisión antes de estudiar o alternando entre las dos actividades. 
    3. De acuerdo con la aproximación del punto de deleite conductual estas diferencias en las pautas de respuesta no deberían tener importancia.

    Pero la evidencia experimental indica que es importante cómo se alcanza el punto de deleite molar. En consecuencia, una adecuada caracterización del deleite conductual requiere información sobre las pautas de elección moleculares.

    1. Las respuestas durante un período de línea base libre no siempre tienen el mismo valor como respuestas que ocurren como parte de una contingencia instrumental impuesta.
    2. En las aproximaciones de regulación conductual, la consecuencia de las contingencias instrumentales es predicha a partir de la distribución de las respuestas en la línea de base. 
    3. Para que estas predicciones funcionen, un investigador tiene que asumir que las respuestas que se realizan en ausencia de restricciones impuestas que se realizan en ausencia de restricciones impuestas por el experimentador son básicamente las mismas que las respuestas que ocurren cuando se impone una contingencia instrumental. 

    Por ejemplo, estudiar en ausencia de una restricción de respuesta impuesta externamente tiene que tener el mismo valor que estudiar para obtener acceso a la televisión.

    1. En varios experimentos se han encontrado que esta asunción es incorrecta. 
    • Hacer algo cuando no hay requerimientos impuestos externamente (correr por placer) parece ser diferente de hacer lo mismo cuando se requiere por una contingencia instrumental impuesta (correr en una clase de educación física).

    Debido a que las aproximaciones de regulación conductual y económica a la conducta instrumental no comprenden procesos conductuales moleculares, no dicen nada acerca de cómo los organismos defienden una combinación preferida de bienes o actividades. Killeen (1995): la economía proporciona una aproximación para entender los intercambios que hacen los animales entre conjuntos alternativos de bienes, pero no trata sobre los procesos que están involucrados en hacer esos intercambios.


    Contribuciones de la regulación conductual
    La aproximación de la regulación conductual surgió de desarrollos teóricos que se originaron con Premack y su principio de probabilidad diferencial. Aunque esta línea de teorizar encontró algunas dificultades serias, también ha proporcionado las principales contribuciones a cómo pensamos sobre la motivación de la conducta instrumental. Contribuciones:

    1. La regulación de la conducta y el principio de Premack no alejó de la consideración de los reforzadores como tipos especiales de estímulos o como tipos especiales de respuestas. Ahora se estimula la búsqueda de las causas del reforzamiento en la forma en que las contingencias instrumentales restringen el flujo libre de conducta. Los efectos del reforzamiento se ven como producidos por las restricciones del programa en el devenir de las actividades de un organismo.
    2. Los procedimientos de condicionamiento instrumental ya no se considera que estampan o fortalecen la conducta instrumental. En su lugar, el condicionamiento instrumental es visto como la creación de una nueva distribución, o asignación, de respuestas. De forma característica, la reasignación de la conducta incluye un aumento  en la respuesta instrumental y una disminución en la respuesta reforzadora. Estos dos cambios se ven como rasgos igualmente importantes en la redistribución de la conducta.
    3. No existe una distinción fundamental entre las respuestas instrumentales y las reforzadoras. No se asume que las respuestas reforzadoras sean más probables que las instrumentales. No se asume que proporcionen ningún beneficio fisiológico especial o que tengan características inherentes que las hacen diferentes de las respuestas instrumentales. En su lugar, las respuestas instrumentales y reforzadoras se distinguen sólo por los papeles asignados a ellas mediante un procedimiento de condicionamiento instrumental.
    4. La regulación conductual y la economía conductual aceptan la idea de que los organismos responden para maximizar sus beneficios. La idea de la maximización de de la optimización no es original de la regulación conductual. Dicha noción se presentó (maximización de las tasas de reforzamiento) con anterioridad al tratar sobre los programas concurrentes. La aproximación del punto de deleite sugiere que la distribución óptima de actividades está determinada por las necesidades fisiológicas y por el nicho ecológico del organismo y la tendencias de respuesta natural del organismo o filogenéticamente determinadas. No siempre está claro lo que se está maximizando. De hecho, los estudios de conducta pueden utilizarse para identificar lo que valoran los organismos y cómo trabajan para conservarlo.
    5. La regulación conductual y la economía conductual han proporcionado caminos nuevos muy precisos para describir las restricciones que imponen varios procedimientos de condicionamiento instrumental en el repertorio de conducta de un organismo. Más importante han enfatizado que la conducta instrumental no puede ser estudiada en un vacío o tubo de ensayo conductual. Todas las opciones de respuesta del organismo que se dan en un momento dado deben ser consideradas como un sistema. Los cambios en una parte del sistema influyen en los cambios en otras partes. Las restricciones impuestas por los procedimientos instrumentales son más o menos efectivas dependiendo de la naturaleza de la restricción, la disponibilidad de sustitutos u el nivel de ingresos del organismo.