CONOCIMINETO CIENTIFICO

CONOCIMIENTO CIENTÍFICO






Conocimiento científico, es el subconjunto del conocimiento humano. Características propias:



En lo que se refiere a los objetivos, el conocimiento científico aspira a establecerse en forma de leyes de la mayor generalidad posible (universalidad).



En lo relativo al modo en que se genera, este tipo de conocimiento se adquiere utilizando un método más o menos estandarizado: método científico, que tiene como característica la replicabilidad, esto es, el investigador científico hace posible que cualquier otro colega cuando explore el mismo fenómeno, obtenga el mismo tipo de resultados.



LA FILOSOFÍA DE LA CIENCIA





La definición de conocimiento científico ha ido variando a lo largo de la historia de la ciencia. Muchos investigadores discrepan sobre distintos hechos, la falta de acuerdo tiene que ver con una serie de asunciones previas; éstas son el objeto de estudio de lo que se conoce como filosofía de la ciencia.



EL OBJETO DE LA CIENCIA.





Tiene por objeto la naturaleza y el hombre mismo, sin embargo no todos los asuntos relacionados con la naturaleza y la especie humana son objeto de la ciencia: por ejemplo: Dios.



La ciencia trata de ampliar y acumular conocimiento siguiendo un conjunto de determinadas reglas. Se compone de la suma de los objetos de estudio de todas las disciplinas científicas; y el número de éstas varía con el tiempo.



MÉTODO DE LA CIENCIA



Habíamos dicho que la característica principal del método científico era la replicabilidad, sin embargo ésta se puede conseguir siguiendo diferentes estrategias. Así podemos hablar del método inductivo, método deductivo, método hipotético- deductivo.



Método inductivo: parte de la observación de la realidad para mediante su generalización, llegar a la formulación de la ley o regla científica.



Método deductivo: parte de la ley general, a la que se llega mediante la razón, y de ella, deduce consecuencias lógicas aplicables a la realidad.



Método hipotético - deductivo: estrategia que mezcla las dos anteriores. EL investigador necesita ir tanto de los datos a la teoría como de la teoría a los datos. Refleja bien le modo de actuar de las diferentes disciplinas hoy en día.



PSICOLOGÍA COMO CIENCIA





En la cultura occidental, la psicología surge como disciplina separada de los filosofía, se autodefine como científica; esto implica que tiene su propio objeto y método de trabajo. (científico, por supuesto)



EL método científico en psicología.



El más utilizado es el hipotético - deductivo, aunque también se hace uso del deductivo e inductivo por separado.



Consiste en un conjunto de pasos, más o menos secuenciados, que se siguen para investigar un problema:



Definición del problema.



Deducción de hipótesis contrastables.



Establecimiento de un procedimiento de recogida de datos.



Análisis de resultados obtenidos.



Discusión de dichos resultados y búsqueda de conclusiones.



Elaboración de un informe de la investigación.



Diseño de investigaciones.



EL término diseño hace referencia a la elaboración de un plan de actuación , una vez se ha establecido el problema de investigación.





EL CONTRASTE DE HIPÓTESIS.



Para poder llevar a cabo una investigación necesitamos no sólo un problema, también tener una “solución” tentativa para el mismo; a esa solución la denominamos: hipótesis.



Pero además, le añadimos un requisito, que sea contrastable. AL conjunto de soluciones tentativas sobre un problema las denominamos teoría.



PROBLEMAS, TEORÍAS E HIPOTESIS.



Existen algunas estrategias generalizadas en referencia a su uso, para la detección de problemas de investigación. La más importante es el desarrollo de una teoría.:



Cuando se formula un conjunto de leyes para describir o explicar el funcionamiento de un determinado fenómeno; surge la necesidad de buscar predicciones desde esa teoría que sean susceptibles de ser observadas en la realidad. Todas las predicciones que en este caso llevan incorporada la solución tentativa tomada de la teoría..



Otro modo de localizar problemas de investigación consiste en acudir a la literatura especializada: leyendas informes de investigación, es fácil encontrar puntos negros, etc.



La observación puede ser otro modo de acceder a problemas de investigación, de hecho, muchas veces se comienza una línea de investigación haciendo observaciones cada vez más sistemáticas, así se van delimitando.



HIPÓTESIS OPERATIVAS.





Para que una hipótesis pueda ser contrastada necesita ser formulada de forma operativa, es decir, debe tener un ámbito de aplicación muy definido para que las observaciones que se realicen no dejen lugar a dudas.





Un modo de hacer operativa una hipótesis, cuando es de tipo causal, es formularla en términos condicionales: Si...........entonces...........



En general, cualquier tipo de hipótesis, llamamos VARIABLE INDEPENDIENTE al factor que explica el fenómeno y VARIABLE DEPENDIENTE al fenómeno explicado.



CONTRASTACIÓN: CONFIRMACIÓN FRENTE A FALSACIÓN.





Una vez que la hipótesis ha sido formulada de forma operativa, podemos pasar a contrastarla, 2 son las estrategias para ello: la confirmación y la falsación..



Confirmación: búsqueda de datos que apoyen la hipótesis.



Falsación: búsqueda de datos que la refuten.



LA LÓGICA DE LA OBTENCIÓN Y CONTRASTE DE LOS DATOS.





Conviene señalar que el falsacionismo como forma de explicación del desarrollo de la ciencia, se enfrenta a serias dificultades, entre ellas: las críticas al concepto de hecho y las investigaciones en historia de la ciencia.



Algunas de las teorías recientes que tratan de superar estas dificultades:



Programas, paradigmas y revoluciones.



Lakatos (1971): las teorías e hipótesis científicas no aparecen de forma puntual o aislada, sino que se agrupan formando estructuras que denomina programas de investigación.



Lo que define a un programa de investigación sería su:



Núcleo central: un conjunto de asunciones fundamentales relativas a los hechos y métodos que considera relevantes, que son compartidos por todos los científicos adscritos a dicho programa y está protegido contra la falsación por la



Heurística negativa: es decir, por el establecimiento de unas reglas que determinan aquello que no es discutible dentro del programa.



Heurística positiva: establece las vías de desarrollo del programa, es decir, aquellas cuestiones que son susceptibles de investigar y, por tanto, de discutir.



Kuhn (1962): para él, el desarrollo científico cabe concebirlo como una lucha entre paradigmas rivales. El concepto de paradigma es muy semejante al de Programa de investigación, pero incluye aspectos relativos a las Psiocosiología de la ciencia.



El conocimiento científico se agrupa no sólo a un conjunto de supuestos teóricos generales, sobre un determinado ámbito disciplinar, sino también las leyes y las teorías para su aplicación adopta una determinada comunidad científica.



El cambio de paradigma dentro de una disciplina científica, se explica en términos de salto cualitativo: revolución.



En el desarrollo histórico de toda disciplina científica se ha empezado por una situación multiparadigmática, en la que han coexistido diferentes paradigmas sin que hubiera una clara predominancia de uno sobre los demás: presencia.



Con el avance, se llegaría a un estado de imposición de 1 paradigma sobre los demás: ciencia normal. Cuando tal paradigma empieza a fallar: crisis daría lugar a una revolución.



CONCLUSIÓN: LA EXPLORACIÓN CONTINUA.





Algunos científicos acusan a Kuhn de ser excesivamente relativista. Para ellos, la importancia que Kuhn da a los factores psicosociobiológicos, podría llevar a la conclusión de que la ciencia se desarrolla en función de las decisiones de los individuos que la practican y no de su capacidad de dar respuestas adecuadas a laso problemas que se le plantean.

TEORIAS CONDUCTISTAS

DOLLARD Y MILLER




SKINNER





SUPUESTOS COMUNES:





Creencia en la bondad de la ciencia natural para solucionar los problemas humanos la psicología es una más de las ciencias naturales.



Como tal ciencia natural sus variables deben ser operacionalizadas, contrastadas en laboratorio ( control de variables) empirismo o positivismo lógico: no se admiten variables no observables, luego el objeto de la psicología se reduce al estudio de la conducta.



Se supone que los resultados del experimento es similar a lo que pasa fuera.



La psicología debe ocuparse del estudio de la conducta observable; vale más la información que proporciona un observador externo e imparcial acerca de esa conducta que la del mismo sujeto al que le suceden las cosas.



En el laboratorio se descubren las leyes que rigen la conducta humana, debemos predecirla y no solo explicarla.



La conducta es aprendida: condicionamiento clásico y el aprendizaje instrumental. El refuerzo desempeña un papel esencial.



Los elementos estructurales básicos defendidos por los conductistas son distintos en función de la escuela a la que pertenecen.



Todos ellos admiten como elementos indiscutibles estímulos y respuestas y tienden a definirlos bien sea por sus cualidades físicas, bien sea por sus propiedades funcionales ( por la importancia que poseen para el individuo). La mayoría admiten la idea del refuerzo.



Asociacionismo compositivo : isomorfismo funcional entre los procesos fundamentales que realiza el sujeto : los procesos complejos funcionan de manera similar a otros más simples.



Estos procesos estudiados son básicos en el sentido de que se encuentran presentes tanto en animales como humanos.



Los procesos complejos no serían más que la agregación de otros procesos simples: por lo tanto la psicología se debe dedicar al estudio de los procesos más elementales, controlables puesto que los resultados obtenidos en estos casos pueden generalizarse y aplicarse al resto de casos, problemas y/o fenómenos psicológicos.



WATSON





ER



Ambientalismo Aprendizaje condicionamiento clásicohábitos



La constancia ambiental determinan la constancia de la personalidad.



Personalidad producto final de nuestro sistema de hábitos(organización estructurada y concatenada de ER )



La imagen que se obtiene de la personalidad es una sección transversal de todo lo que hace el sujeto.



DOLLARD Y MILLER





Intento de síntesis entre el psicoanálisis y la teoría conductista del aprendizaje de Hull.



El origen de la personalidad se encuentra en los procesos de aprendizaje condicionamiento clásico y aprendizaje instrumental, fenómenos de extinción, generalización de estímulos y respuestas.



Conflicto de impulsos (aprendidos/ primarios)no se pueden alcanzar dos fines a la vez.



Hay tres conflictos básicos:



Conflicto de atracción-evitación: se da cuando existen dos impulsos: uno de atracción y otro de evitación de la misma situación conducta neurótica: como resultado del conflicto y de la ansiedad el individuo desarrolla un síntoma que reduce la ansiedad y alivia la presión.



Conflicto evitación-evitación: se trata de elegir entre dos alternativas que se temen o ante las cuales la respuesta usual es la evitación la persona se acerca alternativamente a cada una , tenderá a resolverse realizando aquella conducta que lleva consigo una mayor reducción de aversión/evitación.



Conflicto atracción-atracción: se presentan dos alternativas apetecibles no es un dilema real.



SKINNER





“La personalidad es una creación intelectual utilizada para dirigir los actos que deben hacerse en situaciones de incertidumbre. A medida que se conoce más acerca de los antecedentes de los actos que tienen que ser explicados o a medida que se tiene un mejor control del futuro, el concepto de personalidad es probable que se utilice con menor frecuencia”





El punto de referencia cambia cambia hasta las condiciones ambientales (estímulo-respuesta-refuerzo)





Negación de la personalidad o cualquier variable interna como “inteligencia, motivación...”

EL DISEÑO EXPERIMENTAL DE REPLICACIÓN INTRASUJETO

Introducción




La replicación intrasujeto (N=1) también se llama diseño operante, diseño de caso único, diseño intensivo, diseño temporal o análisis experimental de la conducta (AEC). Donde más se usa es en el condicionamiento operante y, más en concreto, en la modificación de la conducta con los trastornos clínicos. La investigación se realiza con un solo sujeto.



Variable intrínseca o variable impuesta



La conducta es función de múltiples factores y las fuentes de variabilidad aumentan conforme se asciende en la escala filogenético. Por ello, podemos encontrar variabilidad:



Variabilidad intrínseca: Los defensores insisten en ella y para controlarla han creado instrumentos como los diseños estadísticos con alto grado de confianza, capaces de explicar las relaciones funcionales entre VI y VD. Con esta metodología es difícil ahondar en la investigación de problemas individuales porque no toda la variabilidad del comportamiento es intrínseca, sino que la mayor parte de la variabilidad es una función de la interacción del organismo con las variables ambientales.



Variabilidad impuesta: Es la objeto de las operaciones de control experimental.



A partir de aquí se impone el estudio del organismo individual. Si se obtiene éxito, los factores que producen la variabilidad se pueden eliminar y lleva a cabo una prueba más limpia de los efectos de la variabilidad conductual, pues la eliminación de toda la variabilidad posible, permite estimar cuanta variabilidad es realmente intrínseca. El resto de la metodología AEC es más fuerte: sustituyen la estadística por la replicación.



Procedimientos generales en la investigación del “Caso Único” (AEC)



Para los analistas AEC, la investigación no obedece a ningunos pasos, pero si que hay:



Pasos previos: El primer paso es programar totalmente el trabajo con serenidad y minuciosidad, haciendo una descripción exhaustiva del sujeto, forma/tiempo/etc de las series repetidas de medida, manera de establecer la “línea de base”, programa de refuerzos que se va a emplear para generar la “línea de base”, decidir las VD y VI, y especificación de las técnicas de control más apropiadas. El segundo paso es el estudiar los estados de conducta, que pueden ser estables o de transición, con dos métodos:



El descriptivo (observacional): Se reduce al máximo la intervención del investigador, ya que se limita a observar, centrando su atención en los instrumentos de registro y la actuación de los sujetos. El objetivo es estudiar la conducta en función del tiempo durante largos periodos de tiempo. Serían estudios de campo o diseños clínicos.



El manipulativo: Se introduce una VI en la situación experimental para descubrir el grado de influencia que tiene sobre la conducta. Antes, se habrá establecido una “línea de base” (parecido al grupo control) a partir de la que podrán observarse las variaciones.



Procedimientos: Los procedimientos a seguir en el AEC son:



Las mediciones repetidas: De la VD, está en la base e la búsqueda de las fuentes de variabilidad. Se usa porque en la terapia pueden intervenir factores nuevos que trastornan la conducta e impiden conseguir los objetivos. Ésta exige tener bien definidas, operacionalmente, las conductas/operaciones objeto de medida, éstas deben ser observables, públicas y replicables, las que lleven largos periodos de tiempo deben hacerse bajo condiciones muy controladas y estandarizadas (mecanismos, personal, horas, instrucciones a sujetos, condiciones ambientales…), y hay que prestar mucha atención la frecuencia de las mediciones obtenidas por unidad de tiempo, para asegurar un número suficiente de mediciones que garanticen una muestra representativa de la conducta.



Elección de una “línea de base” o “fase A”: La línea de base es la medición repetida de la frecuencia de ocurrencia natural de las conductas objeto de estudio (probabilidad de ocurrencia de una respuesta por unidad de tiempo). L propósito de ésta consiste en tener un estándar a partir del que se pueda evaluar la efectividad de una VI. Una vez establecida y tras esperar a que el sujeto presente una tasa de respuesta estable y constante, cualquier alteración de la misma reflejará la introducción de un tratamiento experimental y la regresión de la tasa de respuesta anterior indicará la retirada del tratamiento. Las características que deben reunir por todas las “líneas de base” son:



Estabilidad y rango de variabilidad: Solo así se podrá evaluar su manipulación de las condiciones independientes. Logrado esto podrá introducirse y retirarse el tratamiento. Si la línea de base es reversible a través de una sesión experimental, podrá introducirse varias veces el tratamiento. En caso de que se produzcan variaciones inesperadas, como variabilidad y línea de base son incompatibles, su uso es nulo.



Sensibilidad: La línea de base ideal sería la que apenas tuviera influencia de otras variables, lo que puede lograrse probando y cambiando varios programas de refuerzo.



Control interno: O eliminación de procesos conductuales no deseados porque la presencia de procesos extraños puede reducir la sensibilidad de la línea de base y porque obstaculizan la evaluación de los datos empíricos.



Como la línea de base actúa a modo de grupo control, hay dos términos de esto:



Control experimental: Capacidad del experimentador para manipular la conducta.



Experimento de control: Técnicas que sirven para poner a prueba hasta que punto los cambios operados en la conducta son efectos de manipulaciones experimentales.



Visto esto, podemos decir que tanto el grupo control como la línea base sirven como niveles de comparación y permiten la evaluación del tratamiento experimental. A pesar de esto, el grupo control tiene como única función permitir la evaluación de los efectos de la VI, pero la línea de base, además de esto, tiene otras funciones diferentes, como:



La exclusividad: El grupo control tiene la función exclusiva de no recibir tratamiento para apreciar el efecto del tratamiento sobre la VD, pero la línea de base puede asumir tanto estados observacionales como manipulativos.



La metodología: En la aproximación tradicional es frecuente que los datos indiquen superficialmente cuales son las relaciones entre varias variables, pero en la aproximación del AEC las relaciones funcionales van al fondo, pudiéndose demostrar inequívocamente mediante el control experimental.



Los supuestos teóricos: En la metodología tradicional se parte de supuestos como la replicabilidad válida de los sujetos y que las diferencias de comportamiento entre los sujetos experimentales y de control se garantiza ante el tratamiento, para formar el grupo control, pero la metodología de la línea de base no parte de esos supuestos.



Sensibilidad de la VD al tratamiento: En la metodología tradicional para descubrir la relación de la VI sobre la VD hay que realizar estudios exploratorios previos, revisar la literatura y aun cuando sea palpable dicha relación, ésta no es evidente durante el curso experimental. En la metodología del AEC la relación entre la VI y la VD es evidente en el transcurso del experimento.



Control de la variabilidad: El grupo control no ofrece protección contra la variabilidad, pero la línea de base evita la variabilidad de muestreo de varias maneras: si la variabilidad está en las respuestas del sujeto, puede evitarse con la estabilidad de la línea de base (con muchas observaciones o controlando las variables que controlan la línea de base); si la fuente de variabilidad se da como resultado de diferentes parámetros de respuesta de distintos organismos, se controla por replicación.



Susceptibilidad del análisis estadístico: Las metodología tradicional y la estadística son inseparables, pero la AEC no depende de la estadística, sino de análisis propios.



Múltiples reversiones: En la línea de base se usa al sujeto como su propio control, lo que hace posibles múltiples reversiones. Con grupos control, no se puede hace esto.



Cambio de una sola variable cada vez: En el AEC solo se debe cambiar una sola variable cuando se pasa de una fase a otra.



Inversión y retirada: La inversión es una estrategia que consiste en que, una vez establecida la línea de base e introduciendo un tratamiento, se procede a la retirada del mismo, cuando ya se ha demostrado con éxito el cambio conductual. Si realmente está bien, retirado éste, la conducta volverá a su estado anterior. La retirada es lo mismo pero es la forma más exacta de definir la operación técnica, mientras que inversión se usa para casos en los que queremos experimentar los efectos de un tratamiento sobre dos conductas objetivo. El momento de la retirada viene determinado por varios fases:



Limitaciones de tiempo: Impuesta por el marco del tratamiento.



Nivel de colaboración del personal: Cuando se trabaja en instituciones (colegios, p.e), es el personal de allí quien tiene que controlar las contingencias ambientales.



Consideraciones éticas: Puede asar que la retirada del tratamiento conduzca al sujeto a un deterioro irreversible en relación a la conducta objetivo (clínica).



Resistencia por parte del personal: Si un clínico diseña un tratamiento y anima a los colaboradores a ponerlo en práctica con éxito y se les pide que apliquen la retirada, puede encontrarse que los padres, maestros, etc se rebelen y no lo cumplan. En estos casos hay que usar la línea de base múltiple o diseños de tratamientos alternativos.



Por ello, al hacer la retirada hay que contar con la cooperación de todo el personal, procurar que las interrupciones ambientales sean mínimas, que el periodo de retirada sea breve y que el restablecimiento para llegar a la conclusión se haga rápido.



Longitud de las fases: Hay varias clases de longitudes en las fases:



Longitud individual: Todas las fases deben tener la misma longitud.



Longitud relativa: Las condiciones de la línea de base y experimental deben prolongarse hasta que sea aparente alguna semblanza de estabilidad.



Efectos acumulativos o de solapamiento: Aparecen tras la línea de base (2ª fase) y cuando ocurre impiden que al experimentador recuperar los niveles de la primera fase. También se puede dar en los cambios de fase y su salida es hacer estudios prolongados o, en investigación conductual, breves para contrarrestar las dificultades.



Variaciones clínicas: Se manifiestan en figuras/gráficos de diente de sierra. Las implicaciones de las variaciones clínicas en el AEC son, por ejemplo, la menstruación, que lleva una serie de trastornos y sensibilidades. En estos casos se usan las fases prolongadas de medición o las réplicas directas y sistemáticas.



Validez, fiabilidad y generalización de hallazgos en el AEC



Las principales investigaciones en las que es justificable el uso de AEC y su generalización es en las investigaciones fisiológicas, cuando nos encontramos con un caso excepcional, en el establecimiento de un nuevo enfoque en el estudio de un problema, en estudios de casos negativos (que no se cumple una regla general de una teoría, pudiendo aplicar nosotros otra para derrumbar la anterior) y cuando pretendemos seguir a un sujeto por evaluación subjetiva de los efectos de algún tratamiento clínico. La generalización se refiere al proceso gracias al que cambios conductuales que se producen en un marco concreto de tratamiento pueden generalizarse a otros aspectos diferentes de la vida del paciente. Hay tres tipos de generalización:



Generalización de hallazgos a través de sujetos: Es saber si un tratamiento que da cambios en un sujeto puede afectar a otro sujeto. Si es así, habrá amplia generalización.



Generalización a través de los agentes del cambio conductual: Es ver si una técnica terapéutica que es eficaz por un agente del cambio conductual, es igual de efectiva cuando se aplica en un caso parecido pero con diferentes agentes conductuales.



Generalización a través de diversos marcos o entornos: Es ver si un tratamiento, dado por el mismo terapeuta a los sujetos, dará efecto tanto en un marco como en otro.



El método más apropiado para conferir generalización y fiabilidad al AEC es la replicación. Hay tres tipos de replicación:



Replicación directa (RD): Consiste en repetir el experimento por parte de un mismo investigador. Para ello hay dos procedimientos: la replicación intersujeto, que es repetir el experimento usando nuevos sujetos para asegurar la generalización del dato obtenido (tres replicaciones para cuatro sujetos); y la replicación directa intrasujeto, que es la aplicación sucesiva de los tratamientos al mismo sujeto para aumentar la fiabilidad de los datos.



Replicación sistemática (RS): Una vez hecho el primer experimento, si este tiene éxito, en vez de repetir el experimento para dar fiabilidad se puede usar esta replicación, usando los datos de la RD para realizar experimentos nuevos y obtener datos adicionales. Si la RS fracasa, hay que volver a hacer el experimento original, porque no se sabe si es porque estaba mal hecho el primero o por la introducción de nuevas variables. Si la RS tiene éxito, la fiabilidad del experimento original aumenta y la generalización a otros sujetos y procedimientos es mayor. Así, la RS es cualquier intento de replicar los resultados de una serie de RD, bajo diferentes contextos, agentes del cambio conductual, trastornos de conducta o bajo cualquier combinación de esos factores. El procedimiento o las pautas a seguir para la RS son:



Se empieza la RS con una RD, siempre que ésta y tres replicaciones sean positivas.



Señalar con caridad las diferencias que se dan entre pacientes, terapeutas y contextos respecto a experimento original porque una o más variables son distintas de las del RD.



El objetivo de la RS es la búsqueda de excepciones (mayor generalización), ya que esto es definir las condiciones bajo las cuales una técnica tendrá éxito o fracasará: cualquier táctica experimental que entorpezca la identificación y registro de excepciones tiene menor valor que un diseño que pone de relieve los fracasos.



Una serie de RS no acaba nunca porque siempre se intentarán encontrar excepciones nuevas, por lo que el conocimiento es acumulativo.



Replicación clínica (RC): En investigación aplicada, muchos pacientes se nos presentan con una suma de problemas que, si se asocian, ese conjunto se etiqueta y la etiqueta se convierte en una categoría diagnóstica. El objetivo aquí es intentar todos los problemas mediante un Tratamiento Paquete, para lo que hay que probar antes los tratamientos para cada uno de los problemas, combinando así todos los tratamientos; esta es a estrategia de la construcción de técnicas. Tras esto, hay que establecer la generalización de resultados replicando este paquete de tratamientos con pacientes adicionales que tengan similar combinación de problemas (replicación clínica). Así, la RC es la administración de un conjunto de tratamientos que tienen dos o más procedimientos de tratamientos, aplicando esto a pacientes con combinaciones similares de trastornos.



Diseños experimentales del AEC



Diseños básicos de retirada “A-B-A”:



El diseño “A-B”: Es el diseño más básico en el que la conducta está claramente especificada y la medida repetida es tomada a través de las fases A y B: la fase A implica una serie de observaciones de la línea de base para ver la frecuencia natural de la conducta estudiada, y en la fase B se introduce la variable tratamiento y se toma nota de los cambios en la VD; después, se hace un periodo de seguimiento. Estos son diseños cuasiexperimentales y las conclusiones son provisionales, por tener V contaminantes.



El diseño “A-B-A”: Diseño de retirada: Es el más simple con retirada. Si tras las mediciones de la línea de base (A), la aplicación de un tratamiento (B) conduce a una mejora y su retirada (A) da un empeoramiento, es porque la variable tratamiento es la responsable de los cambios de la conducta. Tiene un problema en el marco clínico porque el paradigma termina en la fase A y no se da a los sujetos los beneficios del tratamiento. Pero es útil para de investigación cuando el factor tiempo o los aspectos clínicos de un caso interfieren con una correcta aplicación de una estrategia “A-B-A-B”.



El diseño “A-B-A-B”: De reversión por excelencia: Este termina con una fase de tratamiento (B) que después se puede extender más allá de las exigencias experimentales del estudio. Proporciona dos ocasiones (de B a A y de A a B) para demostrar los efectos positivos de la variable de tratamiento, lo que refuerza las conclusiones que pueden derivarse al controlar sus efectos sobre la conducta estudiada.



El diseño “B-A-B”: De retirada: La primera fase (B) es la aplicación de un tratamiento; en la segunda fase (A) el tratamiento se retira; y en la fase (B) se introduce de nuevo. Este es superior al diseño “A-B-A” porque se pone al final el tratamiento, pero como no tiene la ase de la línea de base, es imposible un análisis de los efectos del tratamiento sobre la frecuencia natural de ocurrencia de la conducta estudiada. La mejor: “A-B-A-B”.



El diseño “A-B-C-B”: Las dos primeras fases consisten en la línea de base (A) y reforzamiento contingente (B), en la tercera fase (C) se administra el reforzamiento en las mismas proporciones que en la fase (B) pero desde una base no-contingente, y en la fase final (B) se restablecen los procedimientos de reforzamiento contingente.



Extensión de los diseños “A-B-A”:



Diseños de replicación del modelo “A-B”: El diseño “A-B-A-B-A-B”: Es el diseño “A-B” replicado varias veces. Las ventajas es que se demuestra el control repetido de la variable tratamiento y que puede llevarse a cabo un estudio prolongado hasta que se ha conseguido todo el tratamiento clínico completo.



Diseños de comparación de diversas variables terapéuticas o de tratamientos: El diseño “A-B-A-C-A-C”-A”: Se comparan dos variables con la ejecución de la línea de base durante la experimentación, pudiéndose determinar el control individual de los efectos de las variables B y C y pudiendo evaluarse los efectos de B sobre A. En los diseños “A-B-A-B-BC-B-BC” los efectos de C añadidos a los de B pueden evaluarse experimentalmente. A pesar de ello, resulta problemático interpretar la eficacia de B y C.



Diseños que son variaciones paramétricas del diseño “A-B-A-B”-B”-B”””” de procedimientos terapéuticos básicos: En ciertos paradigmas operantes se puede atenuar el procedimiento de tratamiento; en otros paradigmas, diferentes cantidades del mismo pueden ser evaluadas experimentalmente o en progresión gradual (siguiendo “A-B-A-B”).



Diseños para probar la interacción de los efectos adicionales de dos o más variables: Diseño “A-B-A-C-A”: Se examina la interacción de los efectos adicionales de dos o más variables mediante variaciones en el diseño “A-B-A”. Se llega a esto, examinando los efectos, tanto de ambas variables solas como en combinación, de cara a determinar siempre la interacción. Son diseños complejos y requieren más de un sujeto.



Diseños de cambio de criterio y su variante, el diseño de tratamientos periódicos: La línea de base es seguida de un tratamiento hasta que se llega a un criterio preestablecido. Entonces, éste se convierte en la nueva línea de base (A) y se establece un nuevo criterio.

EL INFORME CIENTÍFICO

Introducción




Con nuestros informes hacemos valer ante todos lo que hemos hecho. Para elaborarlo n hay que esperar al último momento, porque hay partes que se pueden escribir aunque no tengas todos los resultados, habiendo tomando notas. Para redactar hay que tener un estilo literario ameno, pero no vulgar y sin faltas. Los tipos de artículo que hay son:



Artículos de revisión: Los revisores ponen orden en toda la literatura ya publicada, lo estructuran y lo evalúan críticamente. Este trabajo se encarga a autores de prestigio.



Artículos teóricos: Constituye una reflexión del autor sobre un tema/problema, basado en la literatura ya existente. Tras ello, a veces, se propone una teoría, se inhabilita alguna, se propone cambios en otras o se dan una como superior a otra.



Informes de investigación: Sirven para informar sobre las investigaciones desarrolladas por los que lo escriben. Dan su exposición en un esquema de Problema investigado/Planteamiento teórico/Metodología/Resultados/Conclusiones.



Para la elaboración y redacción está universalmente aceptado el estilo APA, que dice:



Tamaño de papel: DIN-A4, blanco y textura consistente. Sin recortes ni medias hojas.



Tipo de letra: New Times Roman de Nº12 y negra. Su configuración la que viene ya.



Márgenes: 3 cm arriba y a la izquierda y 2 cm abajo y a la derecha. Si se va a imprimir por doble cara se fijarán todos los márgenes a 2'54 cm para que quede bien encuadrado.



Espacio interlineal: Espacio sencillo (el normal) o doble espacio (línea en blanco entre dos).



Justificación: Alineación solo a la izquierda.



Paginación: Todas las páginas, menos la 1ª, deben numerarse arriba a la izquierda. Si se va a imprimir en doble cara, se numerará arriba y alineación externa.



Párrafos y sangrías: Sangrar la 1ª línea de cada párrafo entre 5 y 7 espacios.



Extensión de los trabajos: Cada trabajo tiene una, marcado por los requerimientos.



Para citar en el texto, hay que colocar la referencia en el lugar de la frase a la que se aplique. Cuando se parafrasea o se explica lo que ha dicho un autor sin usar sus palabras, se pone e nombre del autor seguido del año de la publicación entre paréntesis. Así, cuando se usa algo que ha dicho un autor utilizando sus palabras, se puede poner el nombre del autor, el año entre paréntesis, la cita entre comillas y la página donde puede encontrarse la cita, ó poner la cita entre comillas y, entre paréntesis, poner autor, año y página. Para citar en el listado de referencias y/o bibliografía se usa el Sistema de Orden de Mención o el Sistema de Nombre y Año, por el cual se inclina la APA.



Secciones de un manuscrito y contenidos



Primera página



!



Resumen



!



!---------------Texto---------------!



Artículos de investigación Revisiones y artículos teóricos



! !



Estructura común para todos Estructura que más convenga al



los artículos de este tipo tema tratado; suele ser este esquema



! !



Introducción Introducción



Método Desarrollo



Resultados Discusión/Conclusiones



Discusión/Conclusiones Referencias



Referencias



! ! !



--------------------------------------------------------------------------



Apéndices, notas y/o tablas/figuras



Contenidos preliminares, comunes a todo informe: La portada o primera página



El título: Debe sintetizar la idea principal del documento, corto y con estilo y originalidad. Se escribe centrado y si ocupa más de una línea, a doble espacio, y con letra mayúscula. No debe ocupar más de 15 palabras y tiene que indicar el área que se estudia, las variables independientes, la variable dependiente y a relación entre ambas.



Autor/es: Dos líneas por debajo del título, centrado y poniendo apellidos y nombre. Cuando halla varios, el 1º será el más prestigiosos o más involucrado en el trabajo.



Requerimiento: Dos líneas por debajo del autor, el tipo de trabajo que se presenta.



Afiliación: Dos líneas por debajo del requerimiento y también centrado, el nombre del instituto o afiliación en la que se ha realizado la investigación.



Cabecera de página para la publicación: Suele constituir el título resumido. Irá especificado en la 1ª página precedido por “Cabecera de página”. Éste aparecerá en la parte superior de cada página del artículo publicado.



Fecha de presentación: Fecha de entrega, en la última línea alineado a la derecha.



Otras posibles partes: Tesis, tesinas, monografías, libros…incluyen partes como:



Prefacio o prólogo: Es la presentación de trabajo, acabando con los agradecimientos.



Índices de contenidos y materias: Se pone al principio de la obra con el resto de los índices. Ha de figurar correctamente especificada la paginación tras cada epígrafe.



Contenidos concretos, comunes para todos los artículos de revista



Resumen: Se inicia en la segunda página centrado y cinco líneas más abajo. Este se reproduce en los compendios de las revistas de resúmenes y en las bases de datos. Se redacta al final del trabajo y tiene que interesar e informar al lector, ayudándole a comprender el artículo mediante un desarrollo sinóptico previo de todo lo que va a leer. Las revistas científicas exigen que todo resumen termine enumerando los descriptores para fines de indicación en las bases de datos. En caso de editarse el artículo en castellano, se exige una réplica del resumen en inglés, con el encabezamiento “Abstract”, colocándose éste a continuación del original y en la misma hoja. Según el artículo, éste:



Artículo teórico de revisión: Su resumen tiene que ser de 75-100 palabras, poniendo el tema en una frase, el propósito, tesis o construcción organizativa y objetivo/finalidad, las fuentes utilizadas y las principales conclusiones e implicaciones/aplicaciones.



Artículo empírico: Su resumen es de 100-150 palabras y unas 12-15 líneas, llevando el problema y/o objetivo de la investigación en una frase, los sujetos, el método, los instrumentos, la recogida de datos y el nombre de los test y las variables, los hallazgos-resultados y las conclusiones e implicaciones/aplicaciones.



Contenidos concretos de los informes de estudios empíricos



Introducción: Apartado corto en el que hay que desarrollar el problema con claridad. Se empieza a escribir en la tercera hoja, cinco líneas abajo sin encabezamiento. Poner:



Introducción/Enunciado del problema: Plantear el problema elegido en forma de pregunta, la importancia del problema en Psicología y la perspectiva teórica desde la que hemos abordado la investigación. También por preguntas, poner objetivos propuestos.



Discusión de la literatura: Demostrando la conexión lógica entre nuestra investigación y lo encontrado en la revisión literaria o estado de la cuestión, explicándole al lector como se descubrieron y desarrollaron las líneas de investigación abiertas hasta el momento. Conviene reflejar solo las investigaciones más pertinentes al trabajo. Los pasos son:



Estructurar las muchas líneas investigativas según estudio, con sus mejores autores.



Explicar como se encuentran actualmente dichas líneas investigativas, enumerando las teorías que la sustentan con los investigadores protagonistas.



Enumerar los resultados principales en cada una de esas líneas de investigación.



Dejar claras las variables y las definiciones teóricas/operativas que han manejado los autores, citando sus nombres propios, y diciendo como midieron las variables. También hay que poner cuales son nuestras variables y el área básica del experimento.



Cerrar el apartado exponiendo nuestra línea de investigación y perspectiva, citando los autores que nos han servido de guía. También hay que exponer las variables, como las hemos medido y su definición tanto teórica como operativa.



Especificación de hipótesis: Comenzará tratando los problemas y explicaciones y teorías de la literatura para explicar nuestra propuesta solución en términos de operaciones.



Fundamentación lógica de las hipótesis: Terminaremos este apartado con esto, que consiste en dar respuesta a por qué hacemos estas hipótesis, en un pequeño párrafo. Lo haremos contestando a estas dos preguntas: ¿Qué variable proyecté manipular y cual medir?, ¿Qué resultados esperaba encontrar y por qué los esperaba?



Actividad recomendada previa a la redacción: Revisar con informes de famosos autores en revistas científicas como se han estructurado los contenidos, para hacerlo nosotros.



La redacción: No hay que cargar el texto con citas textuales, ni poner notas a pie de página, ni exponer la literatura revisada muy detallada, sino las más representativas, haciendo hincapié en los resultados y conclusiones. Solo los autores citados aquí se pondrán en el apartado de referencias, ni uno más.



Método: Este si título y está para comunicar y explicar al lector como se ha realizado la investigación para demostrar la hipótesis, por si éste quiere replicarla. Las partes son:



Términos: Definir constitutiva y operativamente las variables de nuestro estudio.



Sujetos: Cuando aludimos a los sujetos en el cuerpo del informe ponemos S o Ss (si son más de uno). Aquí habrá que poner quienes y cuantos han participado y como fueron seleccionados. Pondremos el número idóneo para que la muestra sea representativa y el número asignado a cada condición experimental, así como la definición y delimitación clara de la población de la que se extrae la muestra y las características demográficas en función de las cuales se hace la elección, la técnica y la asignación a los grupos (voluntarios/no; informados/no; recompensa/no). Cuando los participantes son humanos y se conoce que una característica demográfica es una variable experimental relevante, hay que describir el grupo. Cuando los sujetos son animales hay que informar del género, especie, nombre del suministrador, número de animales, su sexo, edad, peso y condición psicológica.



Estímulos: Especificar el material de los estímulos (dibujos, anagramas, números), diciendo como se le han presentado al sujeto y si hay estímulos verbales o visuales, nombrarlos.



Instrumentos: Describir los instrumentos (presentación de estímulos)/aparatos (registro de respuestas) si no son conocidos, junto con un esquema y fotografía del mismo, y si lo son solo se dará el nombre y número de fabricación. También se dará a conocer la precisión de los instrumentos/aparatos, su validez y fiabilidad y porque se eligieron estos. Cuando los cuestionarios/test son inventados se indicarán los ítems, su análisis, resumen de cómo se construyó incluyendo un apéndice y poner tablas con medias y sigmas.



Procedimiento: Expresa los pasos seguidos para recoger y analizar datos, con dos subs:



Diseño: Enunciar el tipo e diseño y representarlo simbólicamente (número de grupos y su clasificación, método de asignación de sujetos, mediciones y momentos…). También hay que explicar las técnicas de control de as variables: como hemos manipulado la VI, como se ha medido la VD y estrategia para controlar las VE. Por último diremos qué estadísticos hemos usado para los datos y por qué, y se dirá que, entre todos, hemos elegid este diseño porque responde con precisión y economía y frece el mejor control de variables, dando garantía a la validez interna, externa y de constructo, así como que facilita la conclusión estadística.



Procedimientos: En este apartado hay que poner los pasos que siguieron los sujetos desde el comienzo de su participación hasta el fin. Así, habrá que poner las instrucciones o tareas impartidas a los participantes humanos o los programas dados a los sujetos animales, como se demostró la VI y como se registró la VD.



Resultados: Es la exposición cuantificada de lo que hemos hecho, incluyéndose todos los resultados recogidos en puntuaciones directas y los resultados de los cálculos estadísticos. Hay tres formas de presentar los hallazgos:



Presentación tabular: Las tablas y los cuadros: Todo cuadro/tabla debe tener su número encima de la misma, acompañado de la palabra cuadro/tabla. Cada una debe llevar un título autoexplicativo en cursiva, así como que deben ajustarse al formato del papel, estando centradas. Las tablas/cuadros constan de cinco partes: el número, el título (en línea aparte), encabezamiento de filas y columnas, el cuerpo del cuadro/tabla (donde pondremos los datos relevantes para justificar las conclusiones) y las notas al pie del cuadro /tabla (precedido de “nota”, para aclaraciones e indicar el nivel de significación; para éste se pondrá *).



Presentación gráfica: Las figuras y los gráficos: Proporciona más información que otro medio porque son las que mejor ilustran las interacciones y comparaciones y atraen la atención del lector. Éstas se numeran con números arábigos y tienen que ser correlativas al texto desde el principio al final del informe. Hay que dar nombre a cada eje de la figura/gráfica, siendo el eje horizontal (abscisa) para la VI y el eje vertical (de ordenadas) para la VD. Además llevará su título debajo de la gráfica/figura para explicar lo que representa. Las más usadas son las líneas/barras o columnas/polígonos.



Presentación verbal: Aunque los resultados se presenten en lo dicho anteriormente, estos tienen que ir acompañados e una descripción verbal de los resultados.



Discusión: Con esto se trata de dar alguna perspectiva científica a los hallazgos del experimento, para lo que se hará un análisis evaluativo de los resultados que explique por qué se obtuvieron esos resultados y no otros. Para ello hay que resumir los hallazgos críticos e interpretar los resultados en términos de hipótesis específica, es decir, si se confirmó o si se han cumplido los objetivos o no. Cuando la investigación no alcanza los objetivos propuestos ocurre el fracaso productivo y hay que explicar las causas del fracaso. Además tienen que compararse nuestros resultados con los hallazgos previos y hacer un apartado de implicaciones y sugerencias para posteriores investigaciones.



Interpretación: Ayuda a entender los hallazgos experimentales, para lo que hay que acudir a hipótesis e interpretaciones de acuerdo con los intereses del investigador. La generalización de los resultados se tiene que hacer teniendo en cuenta la población, los tratamientos experimentales y del contexto en el que se lleva a cabo el experimento.



Conclusiones: Explicar el alcance y la capacidad de generalización de los resultados, procurando que las conclusiones sean pertinentes con la hipótesis y diseño en función de resultados. Si los resultados estadísticos son significativos la hipótesis se confirma.



Referencias: Irá en nueva página centrado, con la palabra Referencias. Es como una especie de bibliografía, donde se ponen solo los autores citados en el manuscrito por orden alfabético, haciendo de guía para futuros investigadores y para su comprobación.



Otros apartados: Pueden incluirse también otros dos apartados, que son:



Apéndices: Va todo lo que puede tener interés o importancia para los lectores, pero no a suficiente para estar en el texto. Cada apéndice irá en una nueva hoja con el título de Apéndice A, Apéndice B… En ellos suelen ir las tablas excesivamente largas o con material estadístico secundario, el material de medida novedosa, los nuevos programas de ordenador diseñados por el investigador o una lista de materiales de estímulos.



Notas y citas: Notas del autor no numeradas, poniendo el trabajo que ha servido de base para la publicación, la fuente que ha financiad el trabajo, agradecimientos y la dirección para la consecución de separatas. También pueden darse las notas al pie de página, poniendo algún contenido del texto o agradeciendo a algún autor/editorial el permiso para publicar algún material, yendo estas al final en una página aparte, bajo el título centrado de “Notas al pie”, numerándolo con Nota1, Nota2… Por último se puede poner la cita de autor/es, soliéndolo poner en el índice e indicándolo con el autor, el año entre paréntesis y la página, en caso de que sea una cita textual.



Diferencias entre informes: Tesis/Tesinas/Trabajos de clase



La diferencia radica en que el autor de estos trabajos produce él mismo el manuscrito final, que llega a los lectores de la misma forma que e autor lo ha elaborado, y tienen más vida que los manuscritos para revistas. En cambio, el autor del artículo produce un manuscrito que será editado por una revista, imponiendo ésta su formato y directrices. Muchos departamentos de universidad van adoptando un Manual de publicación para sus trabajos, pero normalmente, la elaboración de tesis/tesinas/trabajos de clase suelen estar regulados por normas impuestas por cada departamento. Las tesis doctorales, tesinas y trabajos de clase se someten al juicio de los miembros de un tribunal o del profesor, por lo que los departamentos de psicología informan de los requisitos exigidos. La APA recomienda su guía práctica, e la cual se indican apartados:



Páginas preliminares: En las que se incluyen la página del título, la de la aprobación, una de reconocimientos, tabla de contenidos, listado de tablas un resumen. Para el resumen la extensión en una tesis/tesina es de 350 palabras, o se puede hacer, en vez de esto, un sumario. Los informes de laboratorio se hacen igual que los artículos.



Introducción: Las tesis/tesinas siguen este apartado como los artículos menos porque el autor tiene que tener en cuenta el público al que se dedica: mayor aporte teórico, más rigor metodológico y muestras más amplias y rigurosas. En los informes de laboratorio de estudiantes se permite citar fuentes secundarias con referencias propias.



Método, resultados y discusión: Similar al de artículos de revista.



Sumario: Sustituto del resumen. Viene bien en aso de microfilmado de tesis.



Referencias: Solo se ponen las referencias citadas en el texto. En caso de pedir más información, éste se llamará bibliografía.



Apéndices: Incluye instrucciones verbales a los participantes, escalas y cuestionarios originales, tablas de datos directos y los instrumentos/aparatos utilizados.



Para elaborar el manuscrito, los estudiantes tendrán que informarse si los requisitos de s departamento tienen prioridad a los del manual APA. El manuscrito debe ser lo mas legible posible (configuración general, referencias, orden alfabético con segundas y terceras líneas sagradas, etc) y el escrito de tesis/tesina/trabajo debe guardar una copia del mismo.



Otros detalles o consejos prácticos



La forma de dar la información de las investigaciones es opcional y muy importante para el currículo. Es conveniente examinar otros artículos ya publicados en la revista donde vamos a publicar y tener en cuenta que es diferentes el prestigio según donde se publique. No hay que atiborrar el informe con tablas, figuras, índices… y hay que cuidar mucho el estilo literario.

TÉCNICAS DE INSTRUMENTACIÓN Y REGISTRO EN INVESTIGACIÓN PSICÓLOGICA

Generalidades




En toda investigación se necesitan recoger datos, para lo que se usan diferentes equipos de registro de laboratorio. La instrumentación en la ciencia experimental ha desarrollado la fabricación de equipos de medición-control de alta precisión, aumentando lo objetivo.
Los instrumentos dan tres funciones a cada una de las dos Inter-fases del experimento:




Inter-fase sujeto-instrumentación: Las funciones son la manipulación de la VI (estímulos), control de las posibles variables extrañas y medición de la VD (respuestas).



Inter-fase instrumentación-experimentador: Lleva a cabo funciones como controlar la secuencia de eventos o la presentación de estímulos, registrar, analizar y graficar los datos y presentar los resultados de un experimento.



El equipo estándar de fabricación comercial es más fiable que el de fabricación especial y proporciona condiciones experimentales normalizadas y a la larga sale más barato. La instrumentación electrónica aporta ventajas como que transforma cambios de energía en representaciones eléctricas, y éstas también se pueden transformar en otras formas de energía, permiten ejecutar rápidamente las operaciones lógicas, las señales eléctricas se pueden trasmitir a través de grandes distancias y los datos se almacenan y recuperar rápidamente. Hay que tener en cuenta que el instrumento puede dar lugar a estímulos adicionales no especificados, llegando a falsear los resultados. Por ello, al registrar las respuestas debe considerarse la posibilidad de tener positivos falsos y negativos falsos. También es importante que la operación instrumentada pueda repetirse para obtener resultados confiables y es conveniente que los instrumentos tengan un sistema de chequear errores para alertar cuando halla un fallo. Las principales características que se atribuyen a la instrumentación son que aumenta la objetividad del experimento, que permite eliminar distorsiones al reducir la participación humana, que permite ser un experimento completo y especificado en todos los detalles, puede dar un registro permanente del experimento y los datos acumulados, facilita la presentación de estímulos, la detección de respuestas y la forma de decisión gracias al feedback, y facilita la incorporación de nuevas técnicas válidas acelerando el desarrollo científico.



Instrumentos eléctricos y electrónicos



Multimedidor de bobina móvil: Téster o multímetro: Puede medir dos o más de estas variables eléctricas: voltajes continuos y alternos e intensidad y resistencia. Hay analógicos, que usan medidor de bobina móvil (aguja) con escalas de diferentes colores y signos para cada función, y digitales que usa pantalla de registro alfanumérica (display).



Fuentes de señal: Los osciladores: Se usan cuando hay que seleccionar una señal periódica, controlándola en frecuencia mediante emisión de ondas senoidales. Existen:



Oscilador de audio: Cubren un rango de frecuencias desde 20 Hz hasta 30 KHz, con salidas de onda seno y frecuencias de onda cuadrada.



Generador de señal de radio-frecuencia: Cubren rangos de frecuencias desde 30 Hz a 30 MHz y algunos llevan una forma de modular salida para conseguir señales para probar receptores de radio.



Oscilador de rango amplio: Cubren un rango desde 1 Hz hasta 1 MHz con salida de onda seno y de onda cuadrada.



Generador de funciones: Cubren un rango de frecuencias de 0.001 Hz a 1 MHz de ondas seno, cuadradas y triangulares:
 
Generador de señales especiales: Se fabrican para emitir señales de VHF, UHF y microondas, con frecuencias por encima de 30 MHz.




Osciloscopio: Se construye con una base en el tubo de rayos catódicos y se usa para representar la gráfica de una forma de onda bajo investigación, lo que facilita su medición y análisis. También se puede fotografiar a imagen presentada.



Cronómetro-contador: Se basa en los circuitos de conteo decimal para contar eventos separados y medición de frecuencias e intervalos de eventos eléctricos.



Fuentes de alimentación estabilizadas: Sirven para convertir la corriente alterna de la red en corriente continua, con la que podemos alimentar muchos aparatos.



Electrodos, transductores, polígrafos, magnetófonos y ordenadores.



Fuentes emisoras de señales o estímulos



Estímulos auditivos: Cadenas de detección y reproducción: Se emplean mucho y se programa cuidadosamente para no perjudicar los resultados. Los instrumentos son:



Cadena de captación: Los micrófonos: Traduce las señales acústicas en señales eléctricas equivalentes. Tienen que tener sensitividad alta para la señal y baja para los ruidos, sensitivo para todas las frecuencias de su rango y libre de resonancias, la salida del micrófono no debe ser afectada para los campos magnéticos o electroestáticos adyacentes y debe ser de construcción sólida para que no se rompa. Tipos de micro:



Micrófonos de cristal y de cerámica: Basado en el efecto piezoeléctrico, que tiene ciertos cristales y cerámicas en los cuales, cuando se someten a esfuerzo mecánico, aparece una carga eléctrica en las caras opuestas del cristal. Tienen alta sensibilidad, peso ligero, simple construcción, alta impedancia, cables blindados y son unidireccionales.



Micrófonos de carbón: Se asan en gránulos de carbón sueltos, colocados entre dos placas, una fija y otra acoplada al diafragma. El movimiento de la placa comprime los gránulos y hace variar la resistencia eléctrica entre las placas. Esas variaciones de presión se traducen en variaciones de voltaje. Son de baja impedancia y hacen ruido.



Micrófono de bobina móvil, dinámico o electrodinámico: Su diafragma circular está suspendido en su superficie exterior, por lo que la bobina que lo soporta se puede mover libremente en el entrehierro de los polos de un imán permanente. Al moverse induce un voltaje alterno proporcional a la señal sonora. Tienen baja impedancia y poco ruido.



Micrófono de condensador: Consta de un diafragma de metal circular y delgado asegurado por su borde y mantenido en tensión. En la parte posterior hay otra placa metálica fija, y ambos forman un capacitor (condensador) con dieléctrico e aire. El movimiento del diafragma hace variar la capacitancia produciendo un cambio de voltaje en el condensador. Utilizan una pila, son unidireccionales, de alta impedancia y buenos.



Cadena de reproducción: Los procesos auditivos: Los más importantes son:



Altavoces y auriculares: Convierten la energía eléctrica en mecánica y esta, a su vez se convierte en acústica. Operan bajo la bobina móvil y tiene dificultades como que las ondas sonoras pueden reflectarse en el local, dando resonancias o reverberaciones. Para evitar esto y tener una reproducción exacta se emplearán bafles de alta fidelidad.



Auriculares: Son pequeños altavoces que funcionan según el principio de bobina móvil. Al dar un gran aislamiento del ruido ambiente pueden presentarse una alta variedad de estímulos auditivos bajo un preciso control.



Grabadoras de cinta: Los magnetofones captan y presentan estímulos verbales. Hay:



Grabadoras de casete de bajo coste: Monofónicas y accionadas por pilas (lab).



Grabadoras de casete de alta calidad: Accionadas por corriente de línea para tener mejor cociente señal/ruido.



Grabadoras de carrete de bajo coste: Asociadas por corriente de línea, usan 4 pistas y pueden ser estereofónicas o monofónicas.



Grabadoras estereofónicas y cuadrofónicas semiprofesionales: De 2 y 4 pistas, capaces de vigilar la señal de la cinta durante la grabación, tienen sistema de transporte de cinta para trabajo pesado y un control remoto de la grabadora (lab).



Grabadoras especializadas: Controlan un proyector de diapositivas automático mediante pulsos sincronizados que se graban en una pista separada del material de audio, y que se hace con una grabadora del grupo 4.



Grabadoras de tipo profesional: Con adaptación multicanal y capaces de usar cintas más anchas de ¼ de pulgada.



Amplificadores de audio: Hay dos tipos:



Preamplificadores: Incorporados a los amplificadores, son circuitos diseñados para amplificar señales de bajo nivel para que tengan un efecto mínimo sobre el cociente señal/ruido. Tienen controles para tonos agudos y bajos y filtro para los ruidos.



Amplificadores de potencia: Se instalan entre el preamplificador y el altavoz, dando la potencia para excitar el altavoz en respuestas a señales de entrada en la forma de un voltaje de amplitud variable. Tiene una respuesta lineal, ausencia de distorsión e inestabilidad, amplio ancho de banda de potencia (V) y buen cociente señal/ruido.



Osciladores de audio: Fuentes de señal acústica de tono puro. Se puede producir tonos de diferentes frecuencias y formas de onda con una regulación de tiempo precisa.



El audiómetro, los diapasones, los metrónomos y los estimuladores de ruido blanco: Aparatos que aplican o sirven en la reproducción de la cadena auditiva.



Estímulos visuales: Los más importantes son:



Fuentes luminosas: Fuentes productoras de luz: La luz es una fuente de radiación electromagnética que tiene fotones y la forma de disponer de estos se hace mediante:



Incandescencia: Se produce en las lámparas de filamento de tungsteno. Comprende la emisión de fotones como resultado del movimiento de moléculas a una temperatura alta. Son estables a corto plazo, pero da cambios a largo plazo por evaporación del tungsteno.



Luminiscencia: Se genera en los tubos de descarga gaseosa (tubos de neón y mercurio). Comprende la excitación de los electrones dentro del átomo y producen luz.



Los tubos fluorescentes: Tipo de luminiscencia en la que los fotones de alta energía excitan vapor de mercurio (recubierto de fósforo) haciendo que emita fotones de menor energía. El encendido se controla por el cebador, compuesto de una lámpara de destello auxiliar equipada con un contacto térmico y conectado con el tubo. Son muy eficaces.



Diodo emisor: Son semiconductores que emiten radiación cuando pasa una corriente por ellos. La luz se produce por la recombinación de electrones y huecos en la unión. Se llaman diodos LED y su flujo es bajo y son inapropiados para iluminar objetos, pero tienen gran intensidad cuando se ve directamente. Los LDEs operan con voltajes altos y son compatibles con los circuitos integrados.



Fotometría: Las cantidades y sus unidades fotométricas son:



Intensidad luminosa: Es la brillantez de la luz. La unidad es la candela y es igual a la intensidad luminosa del radiador de cuerpo negro a temperatura de solidificación de Pt.



Flujo luminoso: Es el cociente del flujo de luz de una fuente entre un ángulo sólido en el cual se hace la medición. La unidad es el lumen que es igual a la energía luminosa por segundo dentro de un ángulo sólido de 1 esterradián por una fuente de una candela.



Iluminancia: Es el flujo luminoso por unidad de área que cae sobre una superficie. La unidad es el lux, iluminancia producida por 1 lumen que cae perpendicular en 1 m2.



Luminancia: Es la brillantez de una superficie iluminada. La unidad es la candela/m2.



Presentación taquitoscópica: El taquitoscopio: Aparato que permite la presentación de un patrón de estímulos impresos en una tarjeta con un nivel de iluminación controlado. Vienen equipados con controles eléctricos y su forma de iluminación es con un tubo fluorescente miniatura activado por corriente continua. Otra forma de presentación es el Taquitoscopio de Proyección, proyector de diapositivas convencionales.



Tambores de memoria: El aprendizaje verbal: Dispositivo que se usa para la presentación en serie de los experimentos de aprendizaje verbal. Consiste en un tambor activado por un motor sincrónico mediante un mecanismo de movimiento intermitente de espiga y rueda de estrella o dentada. La lista a presentar se escribe en una banda de papel y se coloca en el tambor. Sobre él se coloca una cubierta con una apertura por la cual se exhiben los reactivos individuales, ofreciendo así la presentación controlada.



Sistemas formadores de imágenes: Hay dos tipos básicamente:



Fotografía y fotocopiado de imágenes.



Proyectores fijos y de cine: Hay cinco tipos principales:



Proyector de transparentas y cuerpos opacos: Dispositivos para la presentación de secuencias de material visual, manuales y automáticos.



Proyector de filminas: Como el proyector de transparencias pero las transparencias se mantienen en su forma original. Tiene un reproductor de cinta magnética para la operación sincronizada del proyector de filminas. El Power Point lo está sustituyendo.



Proyectores de cine: Para la presentación de estímulos en movimiento continuo y para detectar el cuadro. Las normales son las de 24 cuadros/segundo, pero hay más.



Pantallas de TRC/Vídeos.



Óptica de fibras: La fibra de vidrio tiene una refracción alta si se rodea de una cubierta de vidrio con refracción baja, pudiendo dar una refracción interna total.



Presentación de reforzadores: Hay varios tipos:



Reforzadores materiales: Estos varían según para quien son. Para animales, se usa comida y agua; en ratas se usa una pequeña píldora de alimento, que se activa con un relé que permite que la píldora caiga a la taza; con pichones se usa un recipiente de granos situados en un recipiente al que se accede a corto plazo; para líquidos se emplean bomba de líquidos (jeringuilla hipodérmica) o alimentadores de inmersión. Para los niños se usan dulces, golosinas, fichas de cambio, juguetes, etc.



Reforzadores no materiales: Con adultos y niños mayores se usa una señal confirmatoria explicada anteriormente (tono o frase) para señalar la respuesta correcta. Con niños pequeños o deficientes se usan juguetes, marionetas y caricaturas, que su presentación termina en la ausencia de la respuesta requerida.



Estímulos aversivos: El choque eléctrico: Con animales pequeños o sueltos/libres se aplica el choque mediante varillas del suelo de la caja experimental. Con otros animales se les aplica mediante electrodos (ratas en la cola, pichones en el ala y primates en la piel y la cola, mientras están sentados en sillas especiales). Con humanos se dan mediante electrodos minimizando el paso de la corriente por el corazón. Esto da ira.



La detección de respuestas



Técnicas de registro: Instrumentos de papel y lápiz: El mejor método cuando se necesita que los sujetos realicen respuestas de elección múltiple o evaluaciones.



Respuestas motoras: Cuando interviene un control automático de respuestas, éstas deben convertirse en señales eléctricas, lo cual se hace mediante un transductor. Las respuestas fisiológicas se traducen a voltaje con ordenador o polígrafo. Hay varios tipos:



Con eventos discretos: En trabajo operante se llama manipulandum al dispositivo de respuestas: con ratas es una barra, con pichones una llave/palanca y con personas son interruptores, teclas... Si es difícil instrumentar la conducta se emplea la observación.



On eventos continuos: En humanos implica la conducta de rastreo que se hace con un rotor de persecución que se basa en un plato tornamesa que gira a velocidad ajustable y el sujeto debe mantener la aguja en contacto con el objetivo colocado en el plato, detectando este contacto eléctricamente. Con animales se colocan radiotransmisores miniatura. Mediante la prueba de campo abierto se obtiene medida de la reactividad emocional supuesta de las ratas de laboratorio. Esto se basa en un recinto iluminado, con el suelo a cuadros iguales, registrándose la actividad contando en número de cuadros en que entra el animal en un tiempo o la cantidad de defecaciones. Con animales pequeños se usan la jaula estabilímetra (el movimiento de la jaula cuando el animal se mueve en ella se detecta por transductores mecánicos que activan un contador electromecánico) y la rueda de actividad/molino (mediante el número de los giros de la rueda se mide la actividad de la carrera).



Respuestas verbales: Hay principalmente dos tipos:



Respuestas con grabadora de cinta magnética: Cuando no mide tiempo de reacción.



Llave de voz: Cuando se mide tiempo de reacción verbal. Estas usan un micrófono y un amplificador para activar un circuito disparador. Si se presentan estímulos auditivos, se graban estos en una pista y su respuesta en otra, con dos llaves de voz.



Respuestas fisiológicas: Con animales el aparato más característico es el instrumento estereotáxico para sujetar al animal para meterle cánulas, sondas…e el cerebro. Para ello hay que conocer bien las estructuras cerebrales con sus atlas. La canulación permite meter en el cerebro sustancias químicas mediante electrodos. También se han diseñado los radio receptores miniatura para estimulación cerebral y seguimiento del animal. Con humanos el aparato más usado es el polígrafo, combinado con amplificadores fisiológicos, acopladores para varios transductores (se lija la piel y se coloca gelatina entre el electrodo y la piel) y presentación biofeedback (el sujeto conoce su estado).



Actividad electrodermal (EDA): Resistencia y potencial de la piel: Es el estudio de la actividad eléctrica de la piel, es decir, resistencia (dificultad que pone la piel al paso de corriente) y potencial, detectados por el galvanómetro. La nomenclatura en este campo es: RRP (respuesta de resistencia de la piel); NRP (nivel de resistencia de la piel); RCP (respuesta de conductancia de la piel); NCP (nivel de conductancia de la piel); RPP (respuesta del potencial de la piel); NPP (nivel del potencial de la piel). Tanto para la resistencia como para el potencial el mecanismo es la actividad de las glándulas sudoríparas, y para describir sus mediciones se emplean los términos exosomático (exige fuente externa de corriente) y endosomático (no requiere corriente). Los métodos para estas mediciones son (Ley de ):



Corriente constante (resistencia): Se mantiene constante la intensidad de la corriente (I) y se mide el voltaje (V) o diferencia de potencial entre dos electrodos (Ohmnios; ).



V/I = R = Resistencia



Voltaje constante (conductancia): Se mantiene constante el voltaje entre electrodos (V) y se mide la variación de la corriente que fluye en la resistencia de la piel ( ).



V/R = I = Conductancia



Además puede usarse el registro bipolar o unipolar. En el registro bipolar (dos electrodos activos) los potenciales de la piel tienden a cancelarse en los dos sitios. En el registro unipolar los electrodos se conectan a un amplificador fisiológico para amplificar y condicionar la piel. Las variables sujeto que afectan a la EDA son la edad, raza, sexo…, y las variables ambiente son la temperatura, humedad, estación del año…La conductancia fásica o tónica se mide con el psicogalvanómetro (detector de mentiras).



Actividad eléctrica del corazón: Electrocardiografía y pletismografía: Los métodos:



Electrocardiografía (ECG): El electrocardiotacómetro: Se amplifican y usan directamente las señales eléctricas que acompañan a la actividad cardiaca. El ritmo cardiaca se obtiene contando los picos asociados a la contracción ventricular mediante los electrocardiotacómetros poniendo electrodos de palta o acero inoxidable (como todos).



Pletismografía e pulso: Actividad vasomotora (flujo de sangre y volumen corporal): Se usan transductores para detectar cambios e el volumen vascular periférico que acompaña a cada palpitación cardiaca, mediante pletismógrafos, que son tubos angostos de hule elástico al silicio que tiene mercurio con electrodos en cada lado.



Fotopletismografía de pulso: Los fotopletismógrafos: Se ilumina la piel y se detecta, mediante una célula fotoconductiva, los cambios de luz que se transmiten o reflectan mediante fotopletismógrafos.



Presión sanguínea: El volumen sanguíneo y el esfigmomanómetro: La presión sanguínea se puede medir directamente, introduciendo una cánula en la arteria (que no se usa), o indirectamente, mediante el esfigmomanómetro. Éste consiste en un brazalete inflable de hule, cubierto de tela, conectado por un tubo a un manómetro de mercurio. El brazalete se enrolla en el brazo y se infla oprimiendo una pera hasta que se ocluya e flujo sanguíneo a través de la arteria braquial. Entonces se coloca un estetoscopio en dicha arteria por el codo y se reduce lentamente la presión del brazalete hasta escuchar sonidos Korotkoff. Los primeros sonidos indican el pico de la presión sistólica (presión sanguínea durante la contracción ventricular) y cuando desaparece el sonido se toma la lectura del manómetro como presión diastólica (relajación de los ventrículos).



Actividad de los pulmones: La respiración y la espirometría: El espirómetro es el instrumento para medir la respiración. La información de la respiración se deriva de cambios de volumen corporal o variaciones de la temperatura en el flujo de aire. Hay:



Termistores de gota miniatura: Miden las variaciones de temperatura del flujo de aire, acoplándose a la nariz y conectados a registradores fisiológicos.



Neumógrafo: Detectan los cambios de volumen del cuerpo mediante un tubo de goma en forma de fuelle colocado alrededor del pecho. Los cambios de presión de la expansión y contracción de pecho dentro del aire del tubo se transmiten reumáticamente a una aguja que traza el registro en un tambor quimiográfico.



Pletismografía de la impedancia: Permite la detección de cambios de volumen en cualquier parte del cuerpo con electrodos en el pecho para ver la impedancia, ya que la ventilación de los pulmones provoca cambios en la impedancia eléctrica del pecho.



Medidas de la respiración: Volumen máximo:600 ml; volumen por minuto; conciente de tiempo inspiración(2seg)/expiración(5seg); velocidad de respiración:12 respirs/min.



Actividad eléctrica muscular: La electromiografía: Consiste en el registro de la actividad eléctrica asociada con la contracción muscular, que se plasma en el movimiento y las posturas. Cuando llega el impulso nervioso de un nervio motor a una fibra muscular aparece un potencial de acción con una inversión temporal del potencial de la membrana positivo en el interior. En electromiografía clínica se hacen registros unipolares con electrodos de aguja insertados en el tejido muscular dando e resultado de los potenciales de acción de una sola unidad motora. En la detección de respuestas musculares se usan electrodos superficiales, detectando respuesta de muchas unidades motoras descargadas a varias frecuencias. Se ve en milivoltímetros de alta impedancia. Los electromiográficos tienen transductor, amplificador y registrados y, puede, feedback.



Actividad eléctrica del cerebro: Electroencefalografía y electroencefalógrafos: Las ondas más frecuentes de los ritmos electroencefalográficos son los ritmos alfa (relajación), beta, gamma, delta, theta, kappa, lambda y mu, que pueden aparecer combinados. Estos se detectan mediante electrodos insertados tangencialmente por debajo del cuero cabelludo, pudiendo ser registros unipolares o bipolares. El análisis automático de los registros EEG se basan en análisis de frecuencia gráfica, en los valores numéricos de las ondas. Para el biofeedback la señal se filtra en las bandas de ritmo comunes.



Movimientos oculares: Pupilografía y electrooculografía: La Pupilografía es el registro de la dilatación y contracción de la pupila mediante pupilógrafos de dos formas: fotografiando el ojo mientras se pide al sujeto que se fije en un estímulo y mediante scanning electrónico, que consta de una cámara que graba los movimientos de ojos para detectar la cantidad de luz reflejada de la pupila y córnea (mayor o menor dilatación) y el diámetro de la pupila (posición horizontal-vertical del ojo). La Electrooculografía da información de la posición del ojo en relación con la cabeza, manteniendo ésta fija con soporte bucal o monitoreando posición de cabeza y ojos a la vez. Movimientos de ojos:



Sacádicos: Se dan con fijación voluntaria de un punto a otro (leer). Los más rápidos.



De persecución suave: Movimientos lentos e involuntarios al mirar el campo visual.



Compensatorios: Se dan ante el movimiento externo.



Nistagmos: Movimientos oscilatorios del ojo, donde están los optokinéticos (movimientos de estímulos repetidos), vestibulares (movimientos de cabeza), espontáneos o raros (desórdenes), torsionales (movimientos rotatorios) y marginales/bordeantes (fijación binocular).



Los métodos que hay para la medición de los movimientos oculares son dos:



Métodos subjetivos: Fáciles de usar pero no dan un registro continuo. Se sirven de la fijación de una post-imagen o de fenómenos entópticos (percepción de la mácula del sujeto).



Métodos objetivos: Emplean el oftalmógrafo durante la lectura para registrar movimientos horizontales y, a veces, verticales. Las técnicas utilizadas son:



Método fotoeléctrico: Se dirige la luz a una fotocélula y, cuando se mueve el ojo horizontalmente, se refleja más o menos luz infrarroja en un punto enfocado en la unión del iris y la esclerótica, ocasionando que varíe la salida de la fotocélula.



Método eléctrico o electrooculografía: Se basa en la diferencia bastante constante de potencial entre la parte frontal y posterior del ojo, que varía cuando se gira el ojo. Este puede hallar la diferencia de potencial entre los electrodos colocados en los tejidos adyacentes de los ojos. El potencial se contempla como el resultado de la diferencia de potencial entre la parte delantera (córnea) y la posterior (retina) de la pared ocular. Para los movimientos horizontales, los electrodos se colocan junto al rabillo de los ojos; para los verticales los electrodos se colocan uno encima y otro debajo del ojo.



El registro de datos



Registros analógicos: Dan un registro de datos permanente. Los más comunes son:



Registradores de pluma: Emplean un galvanómetro acoplado a una pluma para dar un registro de los cambios en una señal en el tiempo, sobre un papel en movimiento:



Registrador de pluma de tinta: Los más frecuentes. La pluma se alimenta de tinta mediante acción capilar o de sifón. Se usa papel con retícula curvilínea milimetrada.



Registrador de escritura térmica: Dan un registro rectilíneo cuando la aguja, calentada eléctricamente, funde la superficie opaca de papel especial, dejando al descubierto el respaldo negro.



Registrador ultravioleta: Usa un galvanómetro de suspensión para reflejar la luz ultravioleta en un papel fotográfico insensible a la iluminación ambiental.



Registrador de chorro de tinta: Se expansiona un chorro de tinta mediante un galvanómetro en un papel común.



Registradores gráficos: Emplean un servomotor para excitar la pluma que da el registro rectilíneo y un indicador que exhibe el valor del parámetro (para variables lentas).



Grabadoras de cinta magnética: Hay dos métodos para el registro de datos en cinta:



Grabación directa: Es el que usan las grabadoras de audio, pero con ellos no se pueden grabar ni la corriente continua ni las bajas frecuencias.



Grabación en FM: Vence el problema anterior porque se sirven de las señales de entrada para alterar la frecuencia de una señal portadora, de alta frecuencia, que se graba en la cinta. Cuando se reproduce hay que remodular la señal de alta frecuencia para producir una señal proporcional a la señal de entrada original.



Fotografía desde el osciloscopio: Fotografiar la imagen que aparece en la pantalla del osciloscopio de rayos catódicos para un registro permanente.



Registros digitales: Vamos a ver los que no necesitan ordenadores:



Registrador de evento y registrados acumulativo: Es un registrador gráfico de banda en el que cada pluma, accionadas por un selenoide, puede toma posición on-off. Tiene de 4 a 10 canales y un motor de corriente alterna para el movimiento del papel.



Registrador de muestra: Se grafican las respuestas totales como función del tiempo, mediante el deslazamiento de la pluma a través del papel por un incremento fijo para cada respuesta, mientras en papel se mueve a velocidad constante. Por tanto, la pendiente del papel es más pronunciada cuando la respuesta se da con más frecuencia.



Contador con impresión: Es un contador electromecánico, equipado con un recurso por el cual se puede imprimir, en un rollo de papel, el valor acumulado en el contador.



Grabadora de cinta digital: Unidad de cartucho o casete digital, usada con ordenadores, done las cintas se pueden explorar a gran velocidad y los datos se pueden transferir a velocidades muy altas.

LAS MUESTRAS EN INVESTIGACIÓN PSICOLÓGICA

Introducción: Conceptos generales




El objetivo de a estadística inferencial es inferir conclusiones válidas aplicables a toda la población a partir de una muestra, es decir, la generalización de los resultados que estarán relacionados con la representatividad de la muestra. La población es cualquier universo que cumple unos criterios y de los que se puede obtener alguna información mediante expresión numérica. Las poblaciones, además de seres, son acciones, palabras, días, etc y siempre está integrada por cúmulos de elementos. Hay dos tipos:



Población blanco: Toda población en la que el investigador está interesado y a la que intenta generalizar los resultados de su estudio.



Población accesible: Población de sujetos disponibles para un estudio particular, n subgrupo no aleatorio de la población blanco.



En Psicología las poblaciones se aplican a todos los organismos que tienen una conducta similar y están interrelacionados entre sí. Así, podemos encontrar:



Muestreo aleatorio: Elementos confinados dentro de un espacio cerrado y mezclado.



Muestreo sistemático: Cada elemento es identificado por su nombre o por su número, que está en una lista.



Muestreo estratificado: Los sujetos se clasifican por estratos (ocupación, escalas de pago..).



Muestreo por conglomerados o grupos: Población encasillada como grupos naturales, pero muy dispersa geográficamente.



Muestreo de etapas múltiples: Población dispersa geográficamente, que sus miembros se encuentran en puntos definibles agrupados, pero a veces sin listas completas.



El muestreo se refiere al proceso de escoger parte de una población (muestra) para que la represente. Las unidades que integran las muestras y las poblaciones son los elementos y los estratos son una o más subpoblaciones, segmentos mutuamente excluyentes de una población. Los valores de una característica desconocida que el experimentador puede medir de todos los elementos de una población se llaman parámetros. Los estadísticos son las cantidades estimadas en una muestra y el error muestral es la diferencia entre estadístico y su parámetro correspondiente (cuanto menor sea, más exacto será e estadístico). Por otro lado, el error típico es la desviación típica de una distribución muestral que se obtiene en un número infinito de muestras del mismo tipo y tamaño, ya que cada una arroja un error muestral y la media de todos ellos sería el error típico. El error muestral máximo es igual al error típico multiplicado por la Z crítica (la que corresponde al nivel de confianza). Esto nos permite hallar entre qué valores se encuentra el verdadero valor de esa media, o sea, el parámetro:







Error típico (ET): ---- ; Error muestral máximo (Emáx): ET.Z ; Parámetro: X+-Emáx



"n



El cociente de evaluación es el número de elementos de la población representados por cada elemento de la muestra. Si es representativa salvará la validez interna y externa.



CE: N/n



El grado de representatividad de una muestra va a venir por el grado en que el estadístico muestral se aproxime al parámetro de la población. La muestra representativa es aquella cuyas características básicas se aproximan con mucha nitidez a las de la población. En la selección de la muestra los errores pueden ser una representación excesiva o deficiente de alguna característica relevante al problema. Para obtener la muestra representativa hay que hace una selección adecuada mediante la selección al azar, en el que cada uno de los miembros de la población tienen la misma probabilidad de pertenecer a la muestra, por lo que las muestras seleccionadas así se llaman muestras aleatorias. En relación a todo lo de las muestras, podemos hablar de:



Muestras no sesgadas o probabilísticas: Son en las que se conoce la probabilidad que tiene un elemento de ser incluido en dicha muestra y que no se cometen errores sistemáticos. Para garantizar la representatividad hay que aplicar la selección al azar y realizar un muestreo probabilístico, confiriendo a cada miembro de la población una probabilidad igual de ser seleccionado.



Muestras sesgadas: Significa que una muestra no es representativa porque hay una restricción introducida en el proceso de selección de los sujetos, con error sistemático.



En Psicología las investigaciones se llevan a cabo con muestras accidentales que son las que están a disposición del investigador: se escogen los sujetos, se trabaja con ellos y después se intenta generalizar los resultados a una población.



Definición de la población de estudio y especificación de criterios de selección



Los elementos de una muestra se han de seleccionar de forma que los resultados descubran lo que ocurre en la población. En todo proyecto de investigación hay que exponer los criterios de selección que se van a utilizar en la extracción de la muestra y definir genéricamente la población a estudiar. Como es muy difícil aplicar pruebas a toda la población, habrá que someterse a condiciones impuestas por el proyecto que reducen una muestra a elementos que puedan ser estudiados con un coste razonable de dinero y tiempo, y controlar el error aleatorio y sistemático. La caracterización nos exige definir y delimitar la población antes de aplicar el diseño de muestreo, diciendo todos los elementos pertenecientes y la homogeneidad o heterogeneidad de la misma. Hay:



Población diana-blanco: Conjunto de individuos a que hace referencia la pregunta principal y el objetivo del estudio, siendo la población a la que se desearía generalizar los resultados que viene definida por características clínicas y/o demográficas generales.



Población de estudio-accesible: Subconjunto de la población diana que se puede estudiar que reúne características geográficas y temporales que la hacen accesible.



Muestra: Conjunto de sujetos realmente estudiados con número mucho menor que la población. Hay que intentar que esta sea representativa, mediante validez interna (buen diseño, correcto registro y apropiada codificación de datos) y externa (afectada por las diferentas externas entre los sujetos de la muestra y la población diana).



El criterio de igual garantía de poder ser elegido quiere decir que cada elemento de la población tiene que tener la misma probabilidad de incluirse en la muestra y se consigue calculando la fracción de muestreo, por tanto por ciento:



n/N.100



La selección de los integrantes debe hacerse para que se optimicen las posibilidades de detectar una diferencia o asociación, lo que exige una definición precisa del fenómeno y las características de los sujetos. La muestra debe ser homogénea respecto a las variables más relevantes del fenómeno y no conviene que difiera mucho de unos límites de la población diana la que se desea generalizar los resultados. Los criterios de selección tienen que venir marcados por los objetivos del estudio y si la variable se refiere a toda la población la muestra será representativa. Cuando se quieren estudiar variables de una comunidad hay que usar muestras de base poblacional y muy cuantiosas. La población de estudio debe definirse con unos criterios que describan las características para alcanzar el objetivo final, que pueden categorizarse en:



Sujetos idóneos: Para observar el efecto estudiado. Si se conocen bien las variables y su mecanismo, son más fáciles de identificar las características para definir a población.



Sujetos en los que existe mucha probabilidad de detectar el efecto hipotetizado



Sujetos que cumplen el protocolo: Excluyendo a los que no van a respetar las normas.



Excluir sujetos en los que no pueda ser medido el criterio de evaluación en toda su extensión: Cuando hay tratamientos prolongados y no van a estar hasta el final.



Los criterios de selección pueden agruparse en cuatro categorías: características sociodemográficas (edad, sexo, nivel cultual o profesión), características de la enfermedad, otras características más especiales y características de accesibilidad de la población. Para saber como elegir a muestra y el tamaño de esta hay que hacer un análisis de poder. Esa reducción del error del muestreo es proporcional al tamaño de la muestra: a mayor tamaño de muestra, menor probabilidad de error y mayor probabilidad de que la estimación de los parámetros de la población sea lo más precisa. El criterio fundamental al evaluar la muestra es su representatividad, que implica que las características básicas se aproximan lo más posible a las de la población.



Estimación del tamaño necesario de la muestra



El número de sujetos en los experimentos suele variar de uno a mil o más. Es frecuente que el tamaño de un estudio de la muestra se fije a priori, poniendo un número redondo y representativo de la población. Cuanto mayor sea, más representatividad tendrá. La muestra debe constar de un número suficiente de elementos elegidos al azar, lo que se llama potencia de la prueba. El problema sobre la estimación del tamaño hay que contemplarlo desde tres perspectivas:



Procedimiento matemático: Nos permite calcular el tamaño de una muestra de determinadas proporciones mínimas según la probabilidad, dependiendo de la amplitud de la población, considerándose infinita si tiene más de 100000 habitantes o finita si tiene menos; el grado de precisión en las estimaciones maestrales que depende del error de estimación que estamos dispuestos a tolerar y, en función de ello, el coste que supone una ganancia en precisión; el nivel de confianza que vamos a tolerar para que dicho error no exceda de cierta cantidad (se suele poner un 95%, siendo de 0'05 = 2 ); y la desviación típica, variabilidad del parámetro en la población y la media. Para la estimación de un verdadero parámetro (tamaño de la muestra) se puede usar un estadístico como la media, X, junto con su desviación típica uno como las proporciones (p) en tanto por ciento. Con la media, la cantidad de error permitido cuando queremos determinar un nivel de confianza viene dado por la siguiente fórmula:



Z. Z.



E = ------- ; n = ( -------- )2



"n E



Con las proporciones sabremos en que proporción está distribuida la variable estudiada y el tamaño de la muestra indica el número de sujetos e los que debe medirse el grado de control de la variable; esta se medirá, según el caso, con las fórmulas:



Infinitos (más de 100000 elementos)



Finitos (menos de 100000 elementos)



Nivel de confianza



Nivel de confianza



Z



2



3



2



3



Proporciones



Z2.p.q



E2



Z2.p.q



E2



Z2.p.q.N



E2 (N-1)+Z2.p.q



Z2.p.q.N



E2 (N-1)+Z2.p.q



Z2 es la desviación por encima y debajo de la media (si trabajamos con un nivel de confianza del 95%, se trabaja con 2 = Z2 = 22 = 4; s trabajamos con un nivel de confianza del 99%, se trabaja con 3 = Z2 = 32 = 9). 2 es la desviación típica al cuadrado. p es la proporción en que se encuentra la variable estudiada en la población, es decir, proporción de casos favorables sobre el total de la población y si no hay datos, se suele poner en un 50%. q = 1 - p, es decir, proporción de casos desfavorables y tanto p como q aparecerán siempre multiplicados por 100. E2 es el límite de error al cuadrado que nos vamos a permitir.



Procedimiento tabular: También se puede calcular n mediante tablas que dan directamente el tamaño de la muestra. Hay diferentes tablas, según sea la población finita, infinita o de 2 o 3 .



Procedimiento práctico: La selección aleatoria no suele llevarse a cabo en Psicología, por lo que hay otros métodos, menos eficaces pero más prácticos, como son:



Estudios de campo: El número máximo está entre 20 y 500 elementos.



Experimentos de umbrales sensitivos de psicofísica: Suelen ser de 1 a 3 sujetos.



Estudios sobre aprendizaje de conducta animal: Suele estar entre 20 y 30 sujetos.



Si hay grupo experimental y grupo de control: Se necesitan un mínimo de 40 sujetos.



En general se recomienda como tamaño de la muestra un mínimo de 20 a 30 sujetos para cada subdivisión y, al menos, 10 elementos para cada celda del diseño factorial.



Decisión del método para obtener la muestra: Las técnicas del muestreo



Los métodos sistemáticos de selección de sujetos se originan en a Teoría Matemática del Muestreo, pero por muy bien que se haga, nunca hay garantía absoluta de que se obtiene una muestra del todo representativa, aunque con algún tipo de estrategia es posible conocer el margen de error. Los diseños de muestreo son las diversas técnicas, estrategias o procedimientos que se emplean para seleccionar una muestra, donde hay:



Diseños de muestreo no probabilísticos: Los sujetos de la muestra se escogen por métodos que no son el azar, por lo que no hay claves ara conocer la probabilidad que tiene cada elemento de ser incluido en dicha muestra ni la seguridad de que todos tengan la misma probabilidad. Estos diseños, con ciertas correcciones, se emplean mucho porque son simples y económicos, pero tienen un menor rigor científico y en ellos queda mermada la representatividad de la muestra. Dentro de estos hay varios tipos:



Diseños de muestreo accidental: Consiste en tomar tantos elementos cuanto se necesiten para completar el número de elementos ya prefijado. Solo cuenta la opinión el entrevistador, ya que es él quien elige las unidades que integrarán la muestra, haciéndolo de forma razonada con los asesoramientos necesarios. Cuando no hay otra alternativa para acercarse a una muestra representativa, pueden hacerse algunos trucos para que la muestra lo sea como identificar las variables extrañas más importantes de la heterogeneidad y eliminarlas, hacer la elección de sujetos para que representen esas variables o tratar de obtener información acerca de la distribución de la variable que se investiga y de las variables extrañas, para estimar la dirección y magnitud de los sesgo.



Diseños de muestreo intencional o de criterio: El investigador tiene que tener el conocimiento de la población y las relaciones entre sus elementos para decidir, voluntariamente, la selección personal que corresponda a los casos más típicos de la población en cuestión, aunque esto no es objetivo. Una vez establecido el criterio de selección, los sujetos de la muestra son seleccionados en cuanto son los más característicos de la población. Si no hay más remedio, puede usar esto con los trucos.



Diseños de muestreo por cuotas: Se conocen y usan los estratos en los que se sabe que está dividida la población que se quiere estudiar y, a partir de ello, se van seleccionando muestras de miembros que sean representativos para los fines de la investigación. El nombre e este diseño deriva de la práctica de asignar a cada encuestados un número proporcional o cuota de entrevistas, que deben responder a unas características según el fin de la investigación.



Diseños de muestreo semialeatorio: En parte son aleatorios y en parte accidentales.



Diseños d muestreo por rutas: Se les asigna una ruta concreta a los entrevistadores.



Diseños de muestreo probabilísticos: En estos se conoce la probabilidad que tiene cada elemento de ser incluido en la muestra (n/N), teniendo en cuenta dichas probabilidades al hacer la estimación de la muestra, y esta es seleccionada mediante algún procedimiento aleatorio según unas probabilidades ciertas. Los principales son:



Diseños de muestreo simple al azar o aleatorio simple: Todos los miembros de la población tienen igual probabilidad de ser incluidos en la muestra. Para ello, es necesario saber la estructura muestral, que hace referencia a la lista real de unidades entre las cuales se elegirá la muestra. Un de los sistemas que se usa con este modelo son las Tablas de Números Aleatorios, en la que hay que identificar cada elemento de la población mediante la asignación de un número y decidir en la tabla el punto de partida y el criterio que vamos a seguir para la elección de números. Para ello, debemos tomar al azar dos números, del 1 al 40, y el primero nos indicará la columna y e segundo la fila en cuya confluencia tendremos el punto de origen. Por último, transcribimos los números que vayamos obteniendo, ya que cada tres dígitos constituirá uno de los números de la muestra, y sol se rechazan aquellos que excedan de un número o que se repitan. Pocas veces se usa esto porque es difícil lograr una lista de toda la población.



Diseños de muestreo estratificado: El investigador conoce que la población puede subdividirse en varias categorías o estratos, y que estos grupos son homogéneos. A partir de uno de estos estratos se selecciona la muestra mediante la técnica del azar. Esto tiene ventajas como que se seleccionan muestras con mayor variabilidad, lo que incrementa la posibilidad de estimar los valores de la población con mayor precisión, se puede seleccionar una muestra en cada estrato, un estrato puede representar un área concreta y podemos hacer la selección para analizar las características de la misma y debemos considerar cada estrato como una población y actuar en consecuencia.



Diseños e muestreo estratificado proporcional: Con estos podemos disponer de un procedimiento idóneo para lograr muestras representativas en proporción a la magnitud de los estratos en la población. Aquí la afijación de la muestra es el procedimiento para determinar cuantos elementos de la muestra s van a tomar de cada estrato. La afijación simple se da cuando a todos los estratos de la población les asignamos el mismo número de elementos de la muestra y se hace para comparar estratos, ajustando después los datos para llegar a la estimación más ajustada de las cifras de la población total, lo que se llama sopesamiento o comparación. En la afijación proporcional es necesario que la cantidad de elementos dentro de cada estrato sea proporcional a la relación entre el estrato y la población. En la afijación óptima hay que tener en cuenta las proporciones de la población en cada estrato y la dispersión (homogeneidad o heterogeneidad) de los resultados dentro de cada estrato.



Diseños de muestreo sistemático: Exige la selección de las unidades de muestreo de acuerdo con un número fijo K y conocer el cociente de elevación. Hallado el cociente de elevación, de intervalo muestral o el número K, se procede a elegir aleatoriamente un número, que será el del comienzo de los límites de ese número K.



Cociente de elevación = K = N/n



Los inconvenientes de éste son la exigencia de tener un listado de toda la población donde todos los elementos estén ordenados aleatoriamente y la dificultad de evitar las tendencias y/o fluctuaciones. Hay que tener muy en cuenta la ordenación de las unidades de la población como primer paso para que se de el principio de aleatoriedad.



Diseños de muestreo por conglomerados: Aquí se realiza la muestra mediante los grupos naturales ya divididos, lo que hace que sea más fácil numerarlos y practicar una selección sucesiva y aleatoria de unidades. Por ello, la unidad de elección son los grupos que se aprecian agrupados antes de que el investigador los divida. Esto plantea el problema de decidir cual va a ser la unidad de muestreo pero, una vez decidida, la selección de los grupos debe hacerse con los principios de azar.



Hay ciertos errores catalogados como errores debidos al muestreo, que son:



Errores de sesgo: Ocurre cuando al elegir una muestra no se tiene en cuenta su representatividad, o sea que no se ha definido la población de la que se saca la muestra.



Errores aleatorios: Son inherentes a la propia técnica muestral, ya que las diferencias entre varias muestras suelen fluctuar entre ciertos límites. Se elimina muy fácil.



Errores sistemáticos: Aparecen cuando en la selección de varias muestras sus valores promediados se desvían sistemáticamente del verdadero valor de la población, siempre en una dirección. No está si su valor promediado coincide con la media de la población.



Comparación entre muestras grandes y pequeñas



Muestras pequeñas



Muestras grandes



Ventajas



Ventajas



Económicas en tiempo, dinero, medios…



Pueden analizarse datos de interés antes de estudiar muestras grandes.



Se deja menos margen de error.



Buenas para estudios piloto o exploratorios, porque acercan más a los datos y los cálculos son más fáciles.



Permiten estudios en profundidad de casos particulares.



Son ventajosas en estudios en los que se emplean técnicas complicadas.



El error muestral queda aminorado.



Se salva mejor la fiabilidad.



Mayor poder estadístico aplicado a los datos.



Dan la posibilidad de realizar estudios de tipo factorial, porque exigen muestras grandes para examinar la interacción entre variables.



Inconvenientes



Inconvenientes



Expuesto a mayor error muestral.



La fiabilidad y la representatividad se salva peor.



Menor poder estadístico aplicado a los datos.



Si los sujetos se toman según la técnica del diseño por conglomerados o grupos naturales, aunque la muestra sea grande pierde valor. Lo mejor es tomar los sujetos individualmente.



Se deja mayor margen a los errores típicos ya que hay más datos y los equívocos humanos pueden ser más.



No puede corregir fallos del diseño de muestreo.