Investigación documental

Trabajos de investigación. Marco teórico. Hipótesis. Diagrama de Gantt. Análisis de datos

  • Enviado por: Haile
  • Idioma: castellano
  • País: México México
  • 61 páginas

publicidad
cursos destacados
Curso completo de piano - Nivel básico
Curso completo de piano - Nivel básico
Este curso de piano está pensado para todos aquellos principiantes que deseen comenzar a tocar el piano o el...
Ver más información

Iníciate en LOGIC PRO 9
Iníciate en LOGIC PRO 9
Vamos a ver de manera muy sencilla y en un breve paseo de poco más de una hora como funciona uno de los...
Ver más información


MARCO TEÓRICO

Investigación documental

 

En el planteamiento de una investigación es necesario hacer explícito aquello que nos proponemos conocer, por eso es imprescindible definir el problema que se va a investigar.

 

Del planteamiento del problema surgen, por lo tanto, los objetivos internos y externos de la investigación.

 

Ningún hecho o fenómeno de la realidad puede abordarse sin una adecuada conceptualización. El investigador que se plantea un problema, no lo hace en el vacío, como si no tuviese la menor idea del mismo, sino que siempre parte de algunas ideas o informaciones previas, de algunos referentes teóricos y conceptuales, por más que éstos no tengan todavía un carácter preciso y sistemático.

 

El marco teórico, marco referencial o marco conceptual tiene el propósito de dar a la investigación un sistema coordinado y coherente de conceptos y proposiciones que permitan abordar el problema. De éste dependerá el resultado del trabajo. Significa poner en claro para el propio investigador sus postulados y supuestos, asumir los frutos de investigaciones anteriores y esforzarse por orientar el trabajo de un modo coherente.

 

El fin que tiene el marco teórico es el de situar a nuestro problema dentro de un conjunto de conocimientos, que permita orientar nuestra búsqueda y nos ofrezca una conceptualización adecuada de los términos que utilizaremos.

 

El punto de partida para construir un marco de referencia lo constituye nuestro conocimiento previo de los fenómenos que abordamos, así como las enseñanzas que extraigamos del trabajo de revisión bibliográfica que obligatoriamente tendremos que hacer.

 

Veamos un ejemplo... Si deseamos conocer las causas de la delincuencia juvenil, será conveniente aproximarnos al tema desde varios aspectos: desde el plano psicológico, psicosocial, económico, legal, etc. También será necesario esbozar la concepción que tenemos de sociedad y de delicuencia juvenil (el fenómeno en estudio), porque nuestra comprensión del fenómeno variará si partimos de apreciarlo como una conducta disfuncional (por ejemplo) que afecta a individuos impropiamente integrados a sus grupos de referencia o, por el contrario, como una expresión de una contracultura que se origina en una crisis de valores de la sociedad existente.

 

En muchos trabajos de investigación no se presenta una sección aparte denominada "marco teórico", sino que se exponen sus características dentro de lo que se denomina "revisión bibliográfica" o "antecedentes".

 

En otras ocasiones, cuando se trata de una investigación donde el marco referencial se reduce a algunas pocas proposiciones, éstas pueden insertarse al comienzo del trabajo, sin merecer una aclaración mayor. Es el caso de estudios aplicados o de investigaciones que buscan extender conceptos bien conocidos o nuevos estudios.

 

En síntesis, el marco teórico responde a la pregunta: ¿qué antecedentes existen? Por ende, el marco teórico tiene como objeto dar a la investigación un sistema coordinado y coherente de conceptos, proposiciones y postulados, que permita obtener una visión completa del sistema teórico, sobre el conocimiento científico, que se tiene acerca del tema. La conclusión del marco teórico debe ser que existe un problema científico y ése es el que los investigadores van a abordar.

 

Es acá donde se realiza la descripción y análisis de las investigaciones previas o de los antecedentes teóricos que llevan al planteamiento del problema.

 

En general, se podría afirmar que el marco teórico tiene como funciones:

 

  • Orientar hacia la organización de datos y hechos significativos para descubrir las relaciones de un problema con las teorías ya existentes.

  • Evitar que el investigador aborde temáticas que, dado el estado del conocimiento, ya han sido investigadas o carecen de importancia científica.

  • Guiar en la selección de los factores y variables que serán estudiadas en la investigación, así como sus estrategias de medición, su validez y confiabilidad.

  • Prevenir sobre los posibles factores de confusión o variables extrañas que potencialmente podrían generar sesgos no deseados.

 

 

Recordar!!! No puede haber un marco teórico que no tenga relación con el problema.

 

Cómo se debe leer para formular un marco teórico.

 

Una vez que se ha seleccionado el tema y se ha establecido el problema, se debe realizar una lectura sistemática. ¿Qué quiere decir esto? La sistematización se refiere fundamentalmente a la necesidad de leer, a fin de desarrollar el marco teórico de la investigación, teniendo en cuenta el problema que se va a investigar.

 

Esto tiene tres razones:

 

  • Para poder concretar el marco teórico.

  • Para que sea relevante el tema de nuestra investigación.

  • Para ahorrar tiempo e incrementar nuestra eficiencia.

 

Si nos dedicamos a hacer referencia a ciertos artículos, o a consultar libros como si estuviéramos leyendo por placer, lo más probable es que obtengamos resúmenes muy extensos que comprendan la mayoría de los puntos de la lectura en cuestión o, por el contrario, pequeños resúmenes irrelevantes o ininteligibles.

 

¿Qué hacer para evitar esto? La primera regla que debemos aprender es tener siempre presente el problema que se va a investigar. Así, si el libro que estamos consultando se refiere en general a la "toma de decisiones", y nuestro estudio es "la toma de riesgos", nos interesarán únicamente aquellos capítulos, fragmentos o frases relacionados con estos últimos.

 

Otra sugerencia importante es leer con sentido crítico, tanto para obtener aquella información importante para nuestra investigación, como para aprender de los errores teóricos o metodológicos de otros autores. De este modo, evitaremos tener que descartar material que nos pareció importante durante su lectura, pero que más tarde consideramos repetitivo o irrelevante.

 

Por supuesto, existen diferencias obvias entre los temas de investigación que hacen más o menos importante esta parte de la investigación, o que la convierten en una tarea fácil o dificultosa. En una investigación donde el objetivo fundamental es, por ejemplo, determinar el grado de adaptación de una especie Z a una zona más desértica que la de origen, los problemas del marco teórico pueden ser resueltos con bastante simplicidad. En cambio, estos problemas pueden ser esenciales y habrá que dedicarles el mayor esfuerzo intelectual y tiempo a un estudio que intentase determinar los valores que predominan en el sistema educativo.

 

Por ello, es recomendable que el investigador, al comenzar a estudiar su tema, trate de poner al día sus conocimientos por medio de una sistemática y amplia consulta bibliográfica. En general, se recurre a alguno de los siguientes lugares:

 

  • Una biblioteca (privada o pública)

  • Una librería

  • Una hemeroteca

  • Redes informáticas.

 

La recapitulación no debe ser pasiva, será conveniente formular redes esquemáticas, comparar puntos de vista, establecer análisis y síntesis, confeccionar fichas.

 

 

 

Integración del material.

 

Una vez terminadas nuestras lecturas, así como la elaboración y clasificación de las fichas, estaremos en posición de elaborar nuestro marco teórico, que se basará en la integración de las fichas.

 

El orden que llevará la integración estará determinado por el objetivo del marco teórico. Si, por ejemplo, es de tipo histórico, recomendaríamos un orden cronológico de las teorías y/o de los hallazgos empíricos. Si la investigación se relaciona con una serie de variables y tenemos información de teoría, así como de estudios previos de cada una de esas variables y de la relación entre ellas, sería conveniente delimitar secciones que abarcaran cada uno de los aspectos relevantes, a fin de integrar aquellos datos pertinentes a nuestro estudio.

 

Es en esta fase de la investigación donde la identificación de las fichas nos permitirá hacer referencia a éstas para poder extender o aclarar algún punto. Además, la correcta identificación de las fichas y del tema a que se refieren, nos permitirá reunir todas las tarjetas que se relacionan con un mismo tema y leer cada una de éstas para su integración, en lugar de leer varias veces todas las tarjetas que fueron recopiladas.

 

Es fundamental en toda investigación que el autor incorpore sus ideas, críticas y conclusiones con respecto tanto al problema como al material recopilado. También es importante que se relacionen las cuestiones más sobresalientes, yendo de lo general a lo concreto, es decir, mencionando primero generalidades del tema, hasta llegar a lo que específicamente está relacionado con nuestra investigación.

 

 

Definición de términos básicos.

 

Todo investigador debe hacer uso de conceptos para poder organizar sus datos y percibir las relaciones que hay entre ellos.

 

Un concepto es una abstracción obtenida de la realidad y, por tanto, su finalidad es simplificar resumiendo una serie de observaciones que se pueden clasificar bajo un mismo nombre.

 

Algunos conceptos están estrechamente ligados a objetos y a los hechos que representan, por eso cuando se define se busca asegurar que las personas que lleguen a una investigación conozca<n perfectamente el significado con el que se va a utilizar el término o concepto a través de toda la investigación.

 

El problema que nos lleva a la definición de conceptos es el de que muchos de los términos que se utilizan en las ciencias sociales son tomados del lenguaje vulgar y, generalmente, el investigador los utiliza en otro sentido.

 

La definición conceptual es necesaria para unir el estudio a la teoría y las definiciones operacionales son esenciales para poder llevar a cabo cualquier investigación, ya que los datos deben ser recogidos en términos de hechos observables.

 

De acuerdo con la idea del realismo científico, los objetos de estudio existen en el mundo empírico (tangible) pero la teoría pertenece al mundo conceptual del pensamiento. Si el investigador acepta esta visión, debe hacer lo posible para que existan conexiones entre estos dos mundos.
Si el investigador y el lector y usuario del estudio en su forma escrita han de tener la misma noción del objeto, son necesarias normas fijadas y no ambiguas de correspondencia para establecer el modelo teórico con el objeto empírico. Estas son las definiciones de conceptos teóricos que sirven de puentes entre teoría y empiria.

 

Hay dos tipos de definiciones:

 

  • Definiciones empíricas que anuncian cómo se va a observar o medir el concepto en el mundo real, o en la empiria, como se le suele llamar. Dado que la definición explica las operaciones para la observación, es llamada a veces definición operacional.

 

  • No es necesario definir todas nuestros conceptos teóricos directamente con definiciones empíricas, que son a veces difíciles de construir. En muchos casos es un sucedáneo aceptable una definición nominal, que describe el sentido del concepto usando otros conceptos que han sido ya adecuadamente definidos (empírica o nominalmente).

 

 

Si, por ejemplo, hemos definido operativamente dos variables, "distancia" medida en kms. y "duración" medida en minutos, podemos usarlas para definir nominalmente un tercer concepto, "velocidad" = "distancia" / "duración".

 

No es necesario definir continuamente palabras como "ser humano", "día" y "comprar" si son usadas en sus sentidos habituales indicados en los diccionarios corrientes. El uso de lenguaje común y significados estándar de palabras tiene también la ventaja suplementaria de hacer el informe más comprensible para el profano.

 

Sin embargo, cada campo de la ciencia tiene sus conceptos teóricos especiales y para nombrarlos se necesitan algunas palabras especiales. A veces las palabras del lenguaje estándar han sido adoptadas para uso científico y han adquirido un significado especial, cuya definición puede encontrarse en los manuales sobre ese campo. En ocasiones las palabras adecuadas se han tomado prestadas del griego o del latín. Y, finalmente, algunas palabras completamente nuevas se han acuñado por investigadores con inventiva. En cualquier caso, cada investigador debe usar el vocabulario normal de su campo de investigación tanto como le sea posible, para que pueda beneficiarse directamente de resultados anteriores y, a la inversa, sus nuevos resultados sean fáciles de leer y así contribuyan de manera efectiva a la teoría general de ese campo.

 

Otra regla general útil dice que el investigador debe intentar operar con tan pocos conceptos y variables teóricos como le sea posible. Esta recomendación lleva el nombre de "navaja de Occam", y se remonta al siglo XIV, atribuyéndose a Guillermo de Occam.

 

 

Definición operacional.

 

Las definiciones operacionales constituyen un manual de instrucciones para el investigador. Deben definir las variables de las hipótesis de tal manera que éstas puedan ser comprobadas.

 

 

Una definición operacional asigna un significado a una construcción hipotética o variable, especificando las actividades u "operaciones" necesarias para medirla o manipularla.

 

Una definición operacional es, esencialmente, aquella que indica que un cierto fenómeno existe, y lo hace especificando de manera precisa y, preferiblemente, en qué unidades puede ser medido dicho fenómeno. Esto es, una definición operacional de un concepto, consiste en un enunciado de las operaciones necesarias para producir el fenómeno. Una vez que el método de registro y de medición de un fenómeno se ha especificado, se dice que ese fenómeno se ha definido operacionalmente.

 

Por tanto, cuando se define operacionalmente un término, se pretende señalar los indicadores que van a servir para la realización del fenómeno que nos ocupa, de ahí que en lo posible se deban utilizar términos con posibilidad de medición.

 

Las definiciones operacionales pueden ser:

 

  • Medidas: cuando se observan y clasifican las variaciones.

  • Experimentales: indican cómo manipular una variable.

 

 

Las definiciones operacionales son definiciones limitadas, cuyo propósito es permitir que el investigador se acerque a los aspectos de la realidad a estudiar. Siempre existe el peligro de fragmentar un concepto de tal forma que se aleje (o carezca de relevancia) respecto a su significado real. Pero se aproximan a aspectos significativos de la realidad conceptual.

 

Las definiciones operacionales establecen un puente entre los conceptos o construcciones hipotéticas y las observaciones, comportamientos y actividades reales. Es decir, el científico o investigador opera en dos niveles: el de los conceptos e hipótesis (Nivel I) y el de la observación y manipulación (Nivel II). Los dos niveles están conectados por una definición operacional.

 

En las situaciones experimentales, las definiciones operacionales especifican lo que los experimentadores hacen para manipular una o más variables independientes. Estas definiciones indican, literalmente, las operaciones involucradas.

 

 

Función de los conceptos o definiciones operacionales:

 

  • Ordenar la percepción.

  • Valorar lo percibido.

  • Guiar la acción individual.

  • Facilitar la comunicación.

 

 

Requisitos de los conceptos:

 

  • Ha de existir acuerdo y continuidad en la atribución de determinados contenidos figurativos o determinadas palabras.

  • Deben estar definidos con precisión: contenido semántico exactamente establecido.

  • Tienen que tener una referencia empírica: deben referirse a algo aprehensible, observable (aunque sea indirectamente).

 

 

Reglas para definir.

 

La función de la definición consiste en presentar los rasgos principales de la estructura de un concepto para hacerlo más preciso, delimitándolo de otros conceptos, a fin de hacer posible una exploración sistemática del objetivo que representa. Para ello es necesario tener en cuenta:

 

  • Validez significa que nuestra definición se ajusta al concepto. Debe referise justamente a ese concepto y no a algo similar. Si nuestra definición es válida, estamos midiendo justamente lo que pretendemos medir y no otra cosa.

  • Fiabilidad o reproductibilidad significa que si repetimos nuestra medición o registro, el resultado será siempre el mismo.

  • Dar la esencia. La definición debe dar la esencia de lo que se intenta definir, es decir, su naturaleza, sus notas características, sus límites.

  • Evitar tautologías. No debe directa o indirectamente contener el objetivo. Ejemplo: la economía es la ciencia que estudia los fenómenos económicos. No debe ser circular. Es decir, se debe evitar, por ejemplo, definir al entendimiento como la capacidad de pensar y, a su vez, a la capacidad de pensar como a la actividad de entendimiento. Un círculo vicioso consiste en dos (o más) definiciones nominales que se refieren la una a la otra mientras que los conceptos usados en estas definiciones no tienen definición real para vincularlos a la empiria.

  • Debe ser afirmativa. Toda definición debe expresarse siempre en términos afirmativos, nunca en términos negativos.

  • Empleo de lenguaje claro. Debe expresarse en palabras claras y asequibles, no debe contener metáforas o figuras literarias.

  • Significado preciso y unitario.

 

La fase de establecer "definiciones de trabajo" está estrechamente vinculada a la decisión que se tome con respecto a los instrumentos de recogida de datos que se utilizarán.

 

Las definiciones de trabajo son adecuadas si los instrumentos o procedimientos basados en ellas agrupan datos que constituyen indicativos satisfactorios de los conceptos que intentan representar.

 

¿Pueden modificarse las definiciones cuando el trabajo avanza? Sí, de hecho en investigación cualitativa es habitual, porque la comprensión por parte del investigador de lo que está estudiando muchas veces se hace más profunda cuando la investigación avanza. Por otro lado, si las definiciones que han servido como base para mediciones cuantitativas se cambian después de reunir datos empíricos, se han desperdiciado los datos correspondientes a la vieja definición que se habían reunido.

 

 

Esquema de la investigación.

 

Es la estructura que permite ubicar el objeto de la investigación en el marco que lo comprende y analizar las partes de que consta.

 

Se formula para:

 

  • Apreciar el objeto de estudio de forma total y en cada una de sus partes.

  • Estructurar el escrito.

  • Organizar el acopio de información.

  • Planear nuestras actividades.

 

En el modelo que sigue se tratan los aspectos generales de una investigación.

 

El trabajo será más fácil si se desglosan al máximo el objeto de estudio y los aspectos de la investigación.

 

 

 

 

PREGUNTAS ORIENTADORAS

CONCEPTO

  • Definiciones.

  • ¿Qué conceptos vamos a utilizar?

    Consisten en la precisión de los conceptos, acepciones o criterios que vamos a utilizar.

    ¿Qué criterios usaremos?

    ¿Cuál es nuestra concepción del tema?

    • Marco histórico.

    Condiciones históricas que rodean el objeto de estudio.

    Comprende el estado o hechos que prevalecen en el ambiente en que se presenta el objeto de estudio. Constituye el contexto histórico de la investigación.

    Consideración de los factores externos que tienen relación con el objeto de la investigación.

    • Antecedentes.

    ¿Cuál es el origen del objeto de la investigación?

    Son el origen y el desarrollo del objeto de estudio. Conocer la evolución de lo que estamos investigando nos facilita su comprensión.

    ¿Qué evolución ha tenido?

    ¿Qué otras investigaciones similares se han hecho?

    • Ubicación del objeto de estudio.

    ¿Cómo es el área que comprende?

    Es la situación del objeto de la investigación en la disciplina, materia o especie que lo comprende.

    ¿Cómo se manifiesta?

    ¿Qué relación guardan entre sí las partes del área?

    • Descripción del objeto de investigación.

    ¿Cómo es el objeto de estudio?

    • ¿Cuáles son sus partes?

    • ¿Qué relación existe entre el objeto y su contexto?

    • ¿Cuáles y cómo son sus características intrínsecas?

    • ¿Qué efectos produce?

    • ¿En qué períodos se encuentra el fenómeno?

    • ¿Qué aspectos coordinados y subordinados presenta?

    Es la "disección", el análisis, el estudio minucioso de las características, propiedades, relaciones, formas de manifestarse... el desglosamiento de lo que investigamos.

    ¿Qué circunstancias condicionan al objeto de la investigación?

    • Éticas.

    • Geográficas

    • Económicas

    • Ecológicas

    • Tecnológicas

    • Teóricas

    • Culturales

    • Religiosas

    • Filosóficas

  • Marco teórico.

  • ¿Qué tesis existen al respecto?

    Es la consideración de lo que se ha investigado (teorías, hipótesis, tesis) acerca del objeto de nuestra investigación.

    ¿Qué teorías tratan de explicarlo?

    • ¿Cuál es la teoría clásica?

    • ¿Cuáles son las teorías opuestas a la clásica?

    • ¿Cuál es la teoría predominante?

  • Exposición de datos.

  •  

    Descripción y/o provocación del fenómeno. Aquí se muestra la información, directamente relacionada con la hipótesis, obtenida de la investigación.

    • Valoración e interpretación del material obtenido.

     

    Es el análisis crítico de los datos obtenidos.

    • Resumen.

     

    Es la parte del escrito que tiene como finalidad mostrar en qué se sustentan las conclusiones que se obtuvieron.

    • Conclusiones y/o recomendaciones.

     

    Es el resultado de la investigación.

     

     

     

     

    Bibliografía:

     

    Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México (1988). Ed. Mac Graw - Hill.

    Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES. 5ª ed. México (1994). Ed. Trillas S.A.

    Tamayo y Tamayo, Mario. EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA. 3ª ed. México (1998). Ed. Limusa S.A.

    Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen - Humanitas.

     

     

    LAS HIPÓTESIS

    Investigación documental

     

    Podemos definir la hipótesis como un intento de explicación o una respuesta "provisional" a un fenómeno. Su función consiste en delimitar el problema que se va a investigar según algunos elementos tales como el tiempo, el lugar, las características de los sujetos, etc.

     

    Llegar a comprobar o rechazar la hipótesis que se ha elaborado previamente, confrontando su enunciado teórico con los hechos empíricos, es el objetivo primordial de todo estudio que pretenda explicar algún campo de la realidad.

     

    Para plantear una hipótesis adecuada, debemos tener en cuenta los siguientes puntos:

     

  • Los términos que se empleen deben ser claros y concretos para poder definirlos de manera operacional, a fin de que cualquier investigador que quiera replicar la investigación, pueda hacerlo.

  • Una hipótesis sin referencia empírica constituye un juicio de valor.

    Si una hipótesis no puede ser sometida a verificación empírica, desde el punto de vista científico no tiene validez.

  • Las hipótesis deben ser objetivas y no llevar algún juicio de valor; es decir, no debe definirse el fenómeno con adjetivos tales como "mejor" o "peor", sino solamente tal y como pensamos que sucede en la realidad.

  • Las hipótesis deben ser específicas, no sólo en cuanto al problema, sino a los indicadores que se van a emplear para medir las variables que estamos estudiando.

  • Las hipótesis deben estar relacionadas con los recursos y las técnicas disponibles. Esto quiere decir que cuando el investigador formule su hipótesis debe saber si los recursos que posee son adecuados para la comprobación de la misma.

  • La hipótesis debe estar directamente relacionada con el marco teórico de la investigación y derivarse de él.

  •  

    Las hipótesis deben ser producto de la observación objetiva y su comprobación, estar al alcance del investigador.

     

     

    Requisitos de las hipótesis:

     

    Las hipótesis deben:

     

    • Establecer las variables a estudiar, es decir, especificar las variables a estudiar, fijarles límite.

    • Establecer relaciones entre variables, es decir, la hipótesis debe ser especificada de tal manera que sirva de base a inferencias que nos ayuden a decidir si explica o no los fenómenos observados. Las hipótesis deben establecer relaciones cuantitativas entre variables.

    • Mantener la consistencia entre hechos e hipótesis, ya que éstas se cimentan, al menos en parte, sobre hechos ya conocidos. Por tanto, las hipótesis no deben establecer implicaciones contradictorias o inconsistentes con lo ya verificado en forma objetiva.

     

     

    Tipos de hipótesis:

     

    • Hipótesis nula. Para todo tipo de investigación en la que tenemos dos o más grupos, se establecerá una hipótesis nula.

    La hipótesis nula es aquella que nos dice que no existen diferencias significativas entre los grupos.

    Por ejemplo, supongamos que un investigador cree que si un grupo de jóvenes se somete a un entrenamiento intensivo de natación, éstos serán mejores nadadores que aquellos que no recibieron entrenamiento. Para demostrar su hipótesis toma al azar una muestra de jóvenes, y también al azar los distribuye en dos grupos: uno que llamaremos experimental, el cual recibirá entrenamiento, y otro que no recibirá entrenamiento alguno, al que llamaremos control. La hipótesis nula señalará que no hay diferencia en el desempeño de la natación entre el grupo de jóvenes que recibió el entrenamiento y el que no lo recibió.

    Una hipótesis nula es importante por varias razones:

  • Es una hipótesis que se acepta o se rechaza según el resultado de la investigación.

  • El hecho de contar con una hipótesis nula ayuda a determinar si existe una diferencia entre los grupos, si esta diferencia es significativa, y si no se debió al azar.

  • No toda investigación precisa de formular hipótesis nula. Recordemos que la hipótesis nula es aquella por la cual indicamos que la información a obtener es contraria a la hipótesis de trabajo.

    Al formular esta hipótesis, se pretende negar la variable independiente. Es decir, se enuncia que la causa determinada como origen del problema fluctúa, por tanto, debe rechazarse como tal.

    Otro ejemplo:

    Hipótesis: el aprendizaje de los niños se relaciona directamente con su edad.

    Hipótesis nula: no existe diferencia significativa entre el aprendizaje en niños de diversas edades.

    • Hipótesis conceptual. Es la hipótesis que se formula como resultado de las explicaciones teóricas aplicables a nuestro problema. Nos ayuda a explicar desde el punto de vista teórico el fenómeno que estamos investigando.

    Es la hipótesis orientadora de la investigación, intenta enfocar el problema como base para la búsqueda de datos. No puede abarcar más de lo propuesto en los objetivos de la investigación o estar en desacuerdo con ellos.

    Podemos enunciarla como una relación causal o determinante proveniente del planteamiento del problema, de donde se desprenden las variables.

    • Hipótesis de trabajo. Es aquella que le sirve al investigador como base de su investigación, o sea, trata de dar una explicación tentativa al fenómeno que se está investigando. Ésta es la hipótesis que el investigador tratará de aceptar como resultado de su investigación, rechazando la hipótesis nula.

    Se dice que la hipótesis de trabajo es operacional por presentar cuantitativamente (en términos medibles) la hipótesis conceptual o general.

    • Hipótesis alternativa. Al responder a un problema, es muy conveniente proponer otras hipótesis en que aparezcan variables independientes distintas de las primeras que formulamos. Por tanto, para no perder tiempo en búsquedas inútiles, es necesario hallar diferentes hipótesis alternativas como respuesta a un mismo problema y elegir entre ellas cuáles y en qué orden vamos a tratar su comprobación.

     

     

    Las hipótesis, naturalmente, serán diferentes según el tipo de investigación que se esté realizando. En los estudios exploratorios, a veces, el objetivo de la investigación podrá ser simplemente el de obtener los mínimos conocimientos que permitan formular una hipótesis. También es aceptable que, en este caso, resulten poco precisas, como cuando afirmamos que "existe algún tipo de problema social en tal grupo", o que los planetas poseen algún tipo de atmósfera, sin especificar de qué elementos está compuesta.

     

    Los trabajos de índole descriptiva generalmente presentan hipótesis del tipo "todos los X poseen, en alguna medida, las característica Y". Por ejemplo, podemos decir que todas las naciones poseen algún comercio internacional, y dedicarnos a describir, cuantificando, las relaciones comerciales entre ellas. También podemos hacer afirmaciones del tipo "X pertenece al tipo Y", como cuando decimos que una tecnología es capital - intensiva. En estos casos, describimos, clasificándolo, el objeto de nuestro interés, incluyéndolo en un tipo ideal complejo de orden superior.

    Por último, podemos construir hipótesis del tipo "X produce (o afecta) a Y", donde estaremos en presencia de una relación entre variables.

     

    Sólo en los casos de investigaciones explicativas es necesario formular claramente cuáles son las hipótesis de la investigación. En las investigaciones descriptivas y, con más razón, en las exploratorias, es posible omitir las hipótesis, ya sea porque éstas son tan amplias y poco definidas que dicen muy poco a quien lee el informe de investigación, o porque no es posible o necesario verificarlas.

     

     

     

    Dificultades para la formulación de hipótesis:

     

    • Falta de conocimientos o ausencia de claridad en el marco teórico.

    • Falta de aptitud para la utilización lógica del marco teórico.

    • Desconocimiento de las técnicas adecuadas de investigación para redactar hipótesis en debida forma.

     

     

    Utilidad de las hipótesis:

     

    El uso y formulación correcta de las hipótesis le permiten al investigador poner a prueba aspectos de la realidad, disminuyendo la distorsión que pudieran producir sus propios deseos o gustos. Pueden ser sometidas a prueba y demostrarse como probablemente correctas o incorrectas sin que interfieran los valores o creencias del individuo.

     

     

    Estructura de las hipótesis:

     

    Una hipótesis generalmente se especifica por la estructura SI - ENTONCES (cuando intervienen dos variables).

     

    Cuando las variables son más de dos, las estructuras más frecuentes son:

     

    • Si P, entonces Q, bajo las condiciones R y S.

    • Si P1, P2 y P3, entonces Q.

     

     

    Bibliografía:

    Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México (1988). Ed. Mac Graw - Hill.
    Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES. 5ª ed. México (1994). Ed. Trillas S.A.
    Tamayo y Tamayo, Mario. EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA. 3ª ed. México (1998). Ed. Limusa S.A.
    Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen - Humanitas.

    DIAGRAMA DE GANTT

    Es un método gráfico de planeación y control en la que un proyecto se divide en distintas actividades y se realizan estimaciones acerca de cuánto tiempo requiere cada una de ellas, así como el total de tiempo necesario para terminar el proyecto totalmente. En otras palabras, esta gráfica muestra las relaciones de tiempo entre los eventos de un programa y fue desarrollada por Henry L. Gantt.

    La gráfica de Gantt se compone de una hoja a la izquierda y de un gráfico de barras a la derecha. Cada fila de la hoja muestra, de manera predeterminada el nombre y la duración de una tarea del proyecto. En la parte superior del gráfico existe una línea de tiempo. Debajo de ella hay barras que representan la tarea correspondiente de la hoja. La ubicación de una barra de tarea en la línea de tiempo muestra cuándo comienza y finaliza la duración de la tarea. Las tareas se listan de arriba hacia abajo en el orden en que se realizarán. La ausencia de una barra significa que no hay trabajo relacionado con la tarea durante un periodo de tiempo determinado.

    Las gráficas de Gantt son útiles para el seguimiento de proyectos relativamente pequeños, los cuales están integrados de actividades que se realicen con consecuencia ordenada; también para planear actividades que se desarrollen en serie, siendo su principal ventaja es que es sencillo y un excelente instrumento de comunicación con los usuarios finales.

    POBLACIÓN Y MUESTRA

    Investigación documental

       Una población está determinada por sus características definitorias. Por lo tanto, el conjunto de elementos que posea esta característica se denomina población o universo. Población es la totalidad del fenómeno a estudiar, donde las unidades de población poseen una característica común, la que se estudia y da origen a los datos de la investigación.

        Entonces, una población es el conjunto de todas las cosas que concuerdan con una serie determinada de especificaciones. Un censo, por ejemplo, es el recuento de todos los elementos de una población.

        Cuando seleccionamos algunos elementos con la intención de averiguar algo sobre una población determinada, nos referimos a este grupo de elementos como muestra. Por supuesto, esperamos que lo que averiguamos en la muestra sea cierto para la población en su conjunto. La exactitud de la información recolectada depende en gran manera de la forma en que fue seleccionada la muestra.

        Cuando no es posible medir cada uno de los individuos de una población, se toma una muestra representativa de la misma.

        La muestra descansa en el principio de que las partes representan al todo y, por tal, refleja las características que definen la población de la que fue extraída, lo cual nos indica que es representativa. Por lo tanto, la validez de la generalización depende de la validez y tamaño de la muestra.

    Leyes del método de muestreo.

       El método de muestreo se basa en ciertas leyes que le otorgan su fundamento científico, las cuales son:

    • Ley de los grandes números: si en una prueba, la probabilidad de un acontecimiento o suceso es P, y si éste se repite una gran cantidad de veces, la relación entre las veces que se produce el suceso y la cantidad total de pruebas (es decir, la frecuencia F del suceso) tiende a acercarse cada vez más a la probabilidad P.

    • Cálculo de probabilidades: La probabilidad de un hecho o suceso es la relación entre el número de casos favorables (p) a este hecho con la cantidad de casos posibles, suponiendo que todos los casos son igualmente posibles. El método de establecer la probabilidad es lo que se denomina cálculo de probabilidad.

        De estas dos leyes fundamentales de la estadística, se infieren aquellas que sirven de base más directamente al método de muestreo:

    • Ley de la regularidad estadística: un conjunto de n unidades tomadas al azar de un conjunto N, es casi seguro que tenga las características del grupo más grande.

    • Ley de la inercia de los grandes números: esta ley es contraria a la anterior. Se refiere al hecho de que en la mayoría de los fenómenos, cuando una parte varía en una dirección, es probable que una parte igual del mismo grupo, varíe en dirección opuesta.

    • Ley de la permanencia de los números pequeños: si una muestra suficientemente grande es representativa de la población, una segunda muestra de igual magnitud deberá ser semejante a la primera; y, si en la primera muestra se encuentran pocos individuos con características raras, es de esperar encontrar igual proporción en la segunda muestra.

    Tipos de muestras.

    Muestreo aleatorio simple: la forma más común de obtener una muestra es la selección al azar. es decir, cada uno de los individuos de una población tiene la misma posibilidad de ser elegido. Si no se cumple este requisito, se dice que la muestra es viciada. Para tener la seguridad de que la muestra aleatoria no es viciada, debe emplearse para su constitución una tabla de números aleatorios.

    Muestreo estratificado: una muestra es estratificada cuando los elementos de la muestra son proporcionales a su presencia en la población. La presencia de un elemento en un estrato excluye su presencia en otro. Para este tipo de muestreo, se divide a la población en varios grupos o estratos con el fin de dar representatividad a los distintos factores que integran el universo de estudio. Para la selección de los elementos o unidades representantes, se utiliza el método de muestreo aleatorio.

    Muestreo por cuotas: se divide a la población en estratos o categorías, y se asigna una cuota para las diferentes categorías y, a juicio del investigador, se selecciona las unidades de muestreo. La muestra debe ser proporcional a la población, y en ella deberán tenerse en cuenta las diferentes categorías. El muestreo por cuotas se presta a distorsiones, al quedar a criterio del investigador la selección de las categorías.

    Muestreo intencionado: también recibe el nombre de sesgado. El investigador selecciona los elementos que a su juicio son representativos, lo que exige un conocimiento previo de la población que se investiga.

    Muestreo mixto: se combinan diversos tipos de muestreo. Por ejemplo: se puede seleccionar las unidades de la muestra en forma aleatoria y después aplicar el muestreo por cuotas.

    Muestreo tipo: la muestra tipo (master simple) es una aplicación combinada y especial de los tipos de muestra existentes. Consiste en seleccionar una muestra "para ser usada" al disponer de tiempo, la muestra se establece empleando procedimientos sofisticados; y una vez establecida, constituirá el módulo general del cual se extraerá la muestra definitiva conforme a la necesidad específica de cada investigación.

    Bibliografía: EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA, Mario Tamayo y Tamayo, 1998.

    EL MUESTREO

    Investigación documental

     

    Cuando un investigador realiza en ciencias sociales un experimento, una encuesta o cualquier tipo de estudio, trata de obtener conclusiones generales acerca de una población determinada. Para el estudio de ese grupo, tomará un sector, al que se conoce como muestra.

     

    Las poblaciones que el investigador puede estudiar son muy diversas, pero generalmente se relacionan con personas. Por ejemplo, puede estudiar la opinión de las amas de casa con respecto a ciertos métodos de planificación familiar, la edad promedio de los alumnos de una escuela, el coeficiente intelectual promedio de los universitarios, etc.

     

    Desde luego, es de fundamental importancia que se empiece el estudio definiendo la población que se va a estudiar. Las poblaciones suelen ser muy numerosas, por lo que es difícil estudiar a todos sus miembros; además de que esto no es posible, no es necesario. Es como si quisiéramos estudiar la composición química del agua de un río y para ello tratáramos de analizar todo el líquido que corre por su cauce, cuando solamente necesitamos algunas muestras para realizar ese estudio y para llegar a conclusiones generalizables con respecto a la composición química del agua a todo el río.

     

    En ciencias sociales, las muestras no se obtienen tan fácilmente, puesto que los eventos se relacionan siempre con personas, las cuales son mucho menos estables en cuanto a sus pautas de actividades, valores, actitudes y conductas que algunos de los fenómenos que se estudian en las ciencias naturales.

     

    El momento metodológico de la investigación está constituido por la definición y especificación del diseño que se va a utilizar y por la tarea de operacionalización de variables (convertir en operativos, en manejables, a los diversos elementos que intervienen en el problema que se va a investigar).

     

    La operacionalización se refiere de dos tipos de elementos:

     

    • El universo, en tanto conjunto de unidades o fuentes de datos que es preciso reducir a proporciones manejables para poderlo explorar.

    • Las variables, en tanto conceptos abstractos a los que es preciso dar contenido concreto para poder efectuar sobre ellos las mediciones correspondientes.

    La operacionalización del universo es la tarea de encontrar una forma de obtener información relevante sin necesidad de acudir a la medición de todo el universo posible de datos. Es el aspecto cuantitativo de la operacionalización y, para resolverlo, tendremos que apelar a la estadística, mediante técnicas de muestreo. La operacionalización de las variables, de naturaleza cualitativa, tiene por objeto encontrar los indicadores a través de los cuales se expresa concretamente el comportamiento de las mismas.

     

    La relación que existe entre la operacionalización y el tipo de diseño se origina en que, de acuerdo con el método general que se va a utilizar (o sea, el diseño), se requerirá de uno u otro tipo de datos, operacionalizar de cierta manera o de otra. Inversamente, de acuerdo con las posibilidades concretas de operacionalizar en uno u otro sentido las variables y el universo considerado, será más o menos adecuado un cierto tipo de diseño. Por esta razón, ambas tareas deben encararse simultáneamente.

     

     

    Datos y unidades.

     

    Un dato es cada uno de los elementos de información que se recoge durante el desarrollo de una investigación y en base a los cuales, convenientemente sintetizados, podrán extraerse conclusiones en relación con el problema inicial planteado.

     

    Cualquier información, por más pequeña y fragmentaria que sea, puede considerarse como un dato, siempre y cuando pueda colaborar de algún modo a esclarecer los problemas que nos planteamos en un estudio. Saber, por ejemplo, que la persona N opina que las pruebas nucleares deben ser proscritas, es un dato. Esa información, por sí sola, carece prácticamente de valor, pues poco nos dice de las reacciones que despiertan las pruebas de armas atómicas en la gente. Pero el valor del dato reside no en su alcance individual, en lo que nos expresa por sí mismo, sino en su posibilidad de ser integrado en conjuntos mayores. Cuando agrupamos muchas informaciones de carácter similar, cada dato se hace valioso dentro de una perspectiva más amplia. Así, en nuestro ejemplo, si consultamos la opinión de muchas personas, podemos llegar a enunciar que un determinado tanto por ciento de ellas están en contra de los ensayos nucleares e integrar esa información, a su vez, en un estudio sobre las opiniones de determinado conglomerado social.

     

    Las fuentes de datos pueden ser personas, situaciones o hechos que se observan directamente, o materiales bibliográficos de diversa naturaleza. Las llamamos unidades de datos y, a su conjunto, a la suma de todas las unidades, se le da el nombre de universo o población. Podríamos decir que una población o universo es, entonces, el conjunto de todas las cosas que concuerdan con una determinada serie de especificaciones. En general, toda investigación puede considerarse como una búsqueda de los datos apropiados que permitan resolver ciertos problemas de conocimiento. Estos datos son obtenidos a través de un conjunto de unidades que constituyen el universo relevante para la investigación.

     

    Existen universos que resultan demasiado amplios para el investigador, pues éste no tienen ni el tiempo ni los recursos para abordar el estudio de cada una de las unidades que lo componen (el conjunto de ciudadanos de un país, la flora de una región o las innumerables galaxias). Para resolver este inconveniente, se acude a la operacionalización del universo mediante la extracción de muestras.

     

     

    Universo y muestra.

     

    Una muestra es un conjunto de unidades, una porción del total, que nos representa la conducta del universo en su conjunto.

     

    Una muestra, en un sentido amplio, no es más que eso, una parte del todo que llamamos universo y que sirve para representarlo.

     

    Sin embargo, no todas las muestras resultan útiles para llevar a cabo un trabajo de investigación. Lo que se busca al emplear una muestra es que, observando una porción relativamente reducida de unidades, se obtengan conclusiones semejantes a las que lograríamos si estudiáramos el universo total. Cuando una muestra cumple con esta condición, es decir, cuando nos refleja en sus unidades lo que ocurre en el universo, la llamamos muestra representativa. Por lo tanto, una muestra representativa contiene las características relevantes de la población en las mismas proporciones en que están incluidas en tal población. Sus conclusiones son susceptibles de ser generalizadas al conjunto del universo, aunque para ello debamos añadir un cierto margen de error en nuestras proyecciones.

     

    Las muestras pueden ser clasificadas, en una primera división en probabilísticas y no probabilísticas.

     

    En las muestras probabilísticas, la característica fundamental es que todo elemento del universo tiene una determinada probabilidad de integrar la muestra, y esa probabilidad puede ser calculada matemáticamente con precisión. En las muestras no probabilísticas ocurre lo contrario y el investigador no tiene idea del error que puede estar introduciendo en sus apreciaciones.

     

    Las muestras no probabilísticas más usadas son:

     

    • Muestra accidental. Es aquella que se obtiene sin ningún plan preconcebido; las unidades elegidas resultan producto de circunstancias fortuitas. Si entrevistamos a los primeros 50 transeúntes que pasan por cierta calle o medimos la profundidad del mar a lo largo de un trayecto entre dos puntos cualesquiera, estaremos en presencia de una muestra accidental; los datos obtenidos podrán o no representar al universo en estudio. El investigador no puede saber hasta qué punto sus resultados podrán proyectarse, con confiabilidad, hacia el conjunto más amplio que desea conocer.

    • Muestra por cuotas. Consiste en predeterminar la cantidad de elementos de cada categoría que habrán de integrar la muestra. Así podemos asignar una cuota de 50 hombres y 50 mujeres a una muestra de 100 individuos, asumiendo que ésa es la distribución de la población total. Por más que esa presunción llegue a ser válida, no deja de existir cierta arbitrariedad en este modo de proceder, por lo que la rigurosidad estadística de las muestras por cuotas se reduce considerablemente.

    • Muestra intencional. Las unidades se eligen en forma arbitraria, designando a cada unidad según características que para el investigador resulten de relevancia. Se emplea, por lo tanto, el conocimiento y la opinión personal para identificar aquellos elementos que deben ser incluidos en la muestra. Se basa, primordialmente, en la experiencia de alguien con la población. Estas muestras son muy útiles y se emplean frecuentemente en los estudios de caso, por más que la posibilidad de generalizar conclusiones a partir de ellas, sea en rigor nula. En algunas oportunidades se usan como guía o muestra tentativa para decidir cómo tomar una muestra aleatoria más adelante.

     

     

     

    Muestras aleatorias.

     

    Como dijimos, en ellas cada uno de los elementos del universo tiene una probabilidad determinada y conocida de ser seleccionado. Los procedimientos más usuales para la obtención de muestras aleatorias son:

     

    • Azar simple. Este procedimiento se inicia confeccionando una lista de todas las unidades que configuran el universo, numerando correlativamente cada una de ellas. Luego, mediante cualquier sistema (tabla de números al azar, programas de computación), se van sorteando al azar estos números hasta completar el total de unidades que deseamos que entren en la muestra. De este modo, la probabilidad que cada elemento tienen de aparecer en la muestra es exactamente la misma. Si cada uno de los elementos que integran la población no tiene la misma posibilidad de ser elegido, se habla entonces de una muestra viciada. Este método nos garantiza una selección completamente aleatoria, pero resulta muy lento y costoso, pues nos obliga a elaborar listas completas de todas las unidades de interés, lo que a veces es sencillamente imposible. Por este motivo, sólo se emplea cuando los universos son relativamente pequeños. Este método no será adecuado si, por ejemplo, queremos sacar una muestra de todas las personas analfabetas que existen en un país. En cambio, si nuestra intención es extraer una muestra del universo de todos los alumnos que ingresan a una universidad en un determinado año, resultará muy adecuado.

    • Azar sistemático. También se requiere de un listado completo de las unidades que integran el universo en estudio. Luego se efectúan las siguientes operaciones:

  • Se calcula la constante K, que resulta de dividir el número total de unidades que componen el universo por el número de unidades que habrán de integrar la muestra:

  • K = N/n

    Donde:

    N = número total de unidades que componen e universo.

    n = número total de unidades que integrarán la muestra.

  • Se efectúa un sorteo para elegir un número que sea inferior o igual al valor de K. Como primera unidad para integrar la muestra se elige aquella que, en la lista general, posea idéntico número de orden al sorteado. Si designamos con A este primer valor, la segunda unidad elegida será la que lleve el número A + K, la tercera corresponderá a A + 2K y así sucesivamente hasta llegar a A + (n - 1)K.

  • Supongamos un universo constituido por 2.800 elementos, del que deseamos obtener una muestra de 70 casos. Tenemos entonces:

    N = 2.800

    n = 70

    K = 2.800 / 70 = 40

    Ahora, mediante cualquier procedimiento, buscamos al azar un número entero cuyo valor figure entre los límites de 1 y 40. En este caso, el número elegido es el 32. Entonces, las unidades que pasarán a formar parte de la muestra serán las que lleven los siguientes números de orden:

     

    1° unidad

     

    32

    2° unidad

    32 + 40

    72

    3° unidad

    32 + 80

    112

    ....

     

     

    70° unidad

    32 + 2760

    2.792

    Las ventajas y desventajas de este procedimiento son casi idénticas a la de las muestras al azar simple. Los procedimientos computacionales hacen mucho más fácil efectuar el sorteo de las unidades y no existe el riesgo de que la muestra quede sesgada por algún tipo de regularidad que no conocemos y que esté presente en el universo.

    • Muestras por conglomerados. Esta técnica tiene utilidad cuando el universo que se requiere estudiar admite ser subdividido en universos menores de características similares a las del universo total. Se procede a subdividir el universo en un número finito de conglomerados y, entre ellos, se pasa a elegir algunos que serán los únicos que se investigarán; esta elección puede realizarse por el método del azar simple o por el del azar sistemático. Una vez cumplida esta etapa, puede efectuarse una segunda selección, dentro de cada uno de los conglomerados elegidos, para llegar a un número aún más reducido de unidades muestrales. La ventaja de esta técnica es que obvia la tarea de confeccionar el listado de todas las unidades del universo. Su desventaja mayor radica en que, al efectuarse el muestreo en dos etapas, los errores muestrales de cada una se van acumulando, lo que da un error mayor que para los métodos anteriores. La técnica de conglomerados suele utilizarse cuando queremos extraer muestras de los habitantes de un conjunto geográfico amplio, por ejemplo, una gran ciudad o un conjunto de pueblos, por lo que se procede a tomar cada pueblo o grupo de manzanas como un conglomerado independiente; del mismo modo, se la utiliza para conocer las reservas forestales y marinas, para estudiar las estrellas y otros casos semejantes.

    • Muestras estratificadas. Este método supone que el universo puede desagregarse en sub - conjuntos menores, homogéneos internamente pero heterogéneos entre sí. Cada uno de estos estratos se toma luego como un universo particular, de tamaño más reducido, y sobre él se seleccionan muestras según cualquiera de los procedimientos anteriores. Por ejemplo, si quisiéramos estudiar las actitudes políticas de los estudiantes de una universidad, podríamos subdividir en estratos de acuerdo con el tipo de estudios que cursen, suponiendo que estas actitudes van a ser diferentes entre quienes siguen Ingeniería, Letras, Medicina u otras carreras. Luego, efectuaríamos un muestreo dentro de cada sub - universo así definido para, finalmente, realizar un análisis integrando los resultados de todas las sub - muestras.

     

     

    Tanto en el muestreo estratificado como en el de conglomerados, la población se divide en grupos bien definidos. Usamos el muestreo estratificado cuando hay una amplia variación entre los grupos. Usamos el muestreo por conglomerados en el caso opuesto: cuando hay una variación considerable dentro de cada grupo, pero los grupos son esencialmente similares entre sí.

     

     

    Tamaño de la muestra y error muestral.

     

    Recordemos que la muestra descansa en el principio de que las partes representan al todo y, por tal, refleja las características que definen a la población de la cual fue extraída, lo cual nos indica que es representativa. Es decir, que para hacer una generalización exacta de una población, es necesario tomar una muestra representativa. Por lo tanto, la validez de la generalización depende de la validez y tamaño de la muestra.

     

    Cuando trabajamos con muestras, generalmente se presentan dos tipos de errores:

     

    • Error sistemático. Llamado de distorsión o sesgo de la muestra, se presentan por causas ajenas a la muestra:

    • Situaciones inadecuadas: se presentan, por ejemplo, cuando el encuestador tiene dificultades para obtener la información y la sustituye por la que más fácilmente está a su alcance, que no siempre es la más confiable.

    • Insuficiencia en la recolección de datos: hay distorsión por falta de respuestas, o respuestas inadecuadas, ya sea por ignorancia o falta de datos relativos a los elementos incluidos. Distorsiones del encuestador causadas por prejuicios, interés personal o por fallas en la aplicación de instrumentos.

    • Errores de cobertura a causa de que no se han incluido elementos importantes y significativos para la investigación que se realiza.

    • Error de muestreo o muestral. Cualquiera sea el procedimiento utilizado y la perfección del método empleado, la muestra diferirá de la población. A esta diferencia se la denomina error de muestreo.

    Cuando una muestra es aleatoria o probabilística, es posible calcular sobre ella el error muestral. Este error indica el porcentaje de incertidumbre, es decir, el riesgo que se corre de que la muestra elegida no sea representativa. Si trabajamos con un error calculado en 5%, ello significa que existe un 95% de probabilidades de que el conjunto muestral represente adecuadamente al universo del cual ha sido extraído.

    A medida que incrementamos el tamaño de la muestra, el error muestral tiende a reducirse, pues la muestra va acercándose más al tamaño del universo. Del mismo modo, para una muestra determinada, su error será menor cuanto más pequeño sea el universo a partir del cual se la ha seleccionado. Así, para un universo de 10.000 casos, una muestra de 200 unidades tendrá un error mayor que una de 300; una muestra de 200 casos, por otra parte, tendrá un error mayor si el universo tiene 10.000 unidades que si éste posee solamente 2.000.

    Para fijar el tamaño de la muestra adecuado a cada investigación, es preciso primero determinar el porcentaje de error que estamos dispuestos a admitir. Una vez hecho esto, deberán realizarse las operaciones estadísticas correspondientes para poder calcular el tamaño de la muestra que nos permite situarnos dentro del margen de error aceptado.

     

    A veces, sin embargo, el tamaño de la muestra queda determinado previamente por consideraciones prácticas; en tales casos, no hay otra alternativa que aceptar el nivel de error que su magnitud acarree.

     

     

    Bibliografía:

    Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen - Humanitas.

    Técnicas de recolección de datos primarios.

     

  • La observación. Consiste en el uso sistemático de nuestros sentidos orientados a la captación de la realidad que queremos estudiar.

  • Es una técnica antiquísima: a través de sus sentidos, el hombre capta la realidad que lo rodea, que luego organiza intelectualmente. A través de innumerables observaciones sistemáticamente repetidas, mayas y caldeos lograron penetrar en los secretos del movimiento de los cuerpos celestes; observando miles de casos concretos Mendel pudo formular las leyes sobre la herencia.

    El uso de nuestros sentidos es una fuente inagotable de datos que, tanto para la actividad científica como para la vida práctica, resulta de inestimable valor.

  • La entrevista. Consiste en una interacción entre dos personas, una de las cuales - el investigador - formula determinadas preguntas relativas al tema en investigación, mientras que la otra - el investigado - proporciona verbalmente o por escrito la información que le es solicitada.

  •  

     

    Existen además otros procedimientos de recolección de datos primarios, entre los que figguran el llamado cuestionario de autoaplicación, los tests, los diagramas sociométricos, las escalas y diferenciales semánticos, etc. sin embargo, todos tienen su origen, en última instancia, en las dos principales técnicas mencionadas.

     

     

    LA OBSERVACIÓN CIENTÍFICA.

     

    La observación puede definirse como el uso sistemático de nuestros sentidos en la búsqueda de los datos que se necesitan para resolver un problema de investigación.

     

    Dicho de otro modo, observar científicamente es percibir activamente la realidad exterior con el propósito de obtener los datos que previamente han sido definidos de interés para la investigación. La observación que se realiza cotidianamente, como parte de nuestra experiencia vital, no puede ser considerada como científica pues no está orientada hacia objetos precisos de estudio, no es sistemática y carece de controles o de mecanismos que nos pongan a cubierto de los errores que podemos cometer cuando la realizamos.

     

    La observación científica debe seguir algunos principios básicos:

     

    • Debe tener un propósito específico.

    • Debe ser planeada cuidadosa y sistemáticamente.

    • Debe llevarse, por escrito, un control cuidadoso de la misma.

    • Debe especificarse su duración y frecuencia.

    • Debe seguir los principios básicos de validez y confiabilidad.

     

    La principal ventaja de esta técnica en el campo de las ciencias del hombre radica en que los hechos son percibidos directamente, sin ninguna clase de intermediación, colocándonos ante una situación tal como ésta se da naturalmente. De este modo, no se presentan las distorsiones que son usuales en las entrevistas, como la subjetividad del objeto investigado.

     

    Otra ventaja es que la conducta se describe en el momento exacto en que está ocurriendo. Por ejemplo, si queremos hacer un estudio de las diferentes formas que existen para educar a los niños entre las tribus primitivas, observaremos las conductas de las madres hacia sus hijos y las describiríamos tal como se presentan en un momento dado.

     

    Además, las observaciones se pueden realizar independientemente de que las personas estén dispuestas a cooperar o no, a diferencia de otros métodos en los que sí necesitamos de la cooperación de las personas para obtener la información deseada.

     

    Su principal inconveniente reside en que la presencia del observador puede provocar, por sí sola, una alteración o modificación en la conducta de los objetos observados, destruyendo la espontaneidad de los mismos y aportando datos, por lo tanto, poco fiables. Todos los seres humanos, al saberse observados, tienden naturalmente a alterar su conducta, pues hay muchas actividades, opiniones y actitudes que podemos tener en privado, pero nunca cuando sentimos que estamos siendo objeto de una observación. Es dificil poder observar la interacción familiar, por ejemplo, en el momento de acostarse o levantarse.

     

    Esta reacción frente a la presencia de terceros debe tenerse en cuenta siempre que se pretenda utilizar la técnica de la observación con seres humanos. Para evitar las perturbaciones mecionadas, se han diseñado dos procedimientos:

     

    • Para evitar inhibiciones o alteraciones en la conducta de los sujetos observados, se trata de pasar lo más desapercibidos posible, actuando de tal manera que el observador no aparezca con contornos nítidos ante los observados, sino más bien como parte del "telón de fondo" de la situación. Si logramos esto, lograremos observaciones confiables y de buena calidad. Ésta es la observación simple.

    • La otra forma de que las personas no se sientan observadas se basa en un procedimiento inverso: el observador, en vez de pasar desapercibido, trata de integrarse a la acción de los observados, de participar en ella como si se tratara de un miembro más del grupo. Por ello, se la denomina observación participante.

     

    La observación, debido a su utilidad, es una técnica que se puede utilizar, junto con otras, para recabar información; por ejemplo, la observación se puede utilizar en un estudio exploratorio, y para el estudio final se pueden usar otras técnicas como cuestionarios, entrevistas, etc.

     

     

    Observación simple y participante.

     

    La observación simple resulta útil y viable cuando se trata de conocer hechos o situaciones que de algún modo tienen un cierto carácter público, o que por lo menos no pertenecen estrictamente a la esfera de las conductas privadas de los individuos.

     

    Es factible mediante este procedimiento conocer hábitos de compra, situándonos estratégicamente en los puntos de ventas, relevar formas de comportamiento político, mediante la asistencia a actos de esa naturaleza, y conocer otros aspectos de la conducta manifiesta de las personas: hábitos de vestimenta, de concurrencia a lugares públicos, de trato social, etc. Casi siempre sus resultados apuntan a lo más superficial o visible de la realidad social.

     

    La observación simple puede adquirir también un carácter indirecto, si apelamos al auxilio de instrumentos capaces de registrar información sobre el problema. El uso de vidrios polarizados, de cintas magnetofónicas, filmadoras, cámaras de televisión y otros aparatos es de indudable valor en el estudio de la conducta humana, por la exactitud de sus registros y por la confianza que proporcionan al investigador. Es conveniente utilizar estos auxiliares siempre y cuando las circunstancias lo permitan. Por supuesto, el uso de estos medios debe plantearse de modo tal que no perturben la acción o situación, porque de lo contrario sus efectos serían más bien contraproducentes.

     

    La observación participante, por otra parte, implica la necesidad de un trabajo más dilatado y cuidadoso, ya que el investigador debe primeramente ingresar al grupo, comunidad o institución en estudio para, una vez allí, ir realizando la doble tarea de desempeñar roles dentro del conjunto y de ir recogiendo los datos que desea conseguir. Por lo tanto, es preciso confundirse con las personas sobre las que recae la investigación, sin abandonar la actitud observadora. Con esto se consigue ser testigo de los hechos "desde adentro", y el observador no sólo puede percibir las formas más exteriores de la conducta sino también experimentar en carne propia las actitudes y valores que se relacionan con el comportamiento en estudio. Esta información resulta, por lo general, más confiable que la que se obtiene por medio de entrevistas, ya que los hechos se observan a medida que se producen y tal como se producen.

     

    La observación participante puede llamarse natural cuando el investigador pertenece, de hecho, al conjunto humano que investiga. Si un estudiante quiere hacer una investigación sobre estudiantes, prácticamente no necesita ningún esfuerzo para lograr su cometido, pues ya es estudiante y conoce el lenguaje, los modos de hacer y de comportarse del grupo que investiga.

     

    La observación participante, en cambio, se denomina artificial cuando la integración del observador al grupo se hace con el objeto deliberado de desarrollar un trabajo de investigación. Cuando la distancia social entre observador y observado es poca, la adecuación no es difícil.

     

    La observación participante puede variar desde una afiliación total al grupo hasta una participación limitada y condicionada, tanto en cuanto al tiempo como en cuanto a las funciones asumidas por el observador. No es necesario que éste lleve a cabo exactamente las mismas actividades que realizan los demás miembros del grupo; en lugar de ello, puede buscarse algún papel que sea aceptable dentro de la comunidad y que el observador pueda desempeñar razonablemente bien. En todos los casos, es importante que no se divulgue la verdadera finalidad de su participación y que cuide todos los detalles de su aspecto personal, de sus gestos y ademanes, de las palabras y opiniones que expresa, para no aparecer como un participante anómalo, porque esto puede generar hacia él una actitud de desconfianza o un trato atípico, bloqueando la información que recibe y llegando hasta a distorsionar las actividades que el grupo normalmente realiza.

     

    En cuanto a las desventajas de la observación participante, debemos mencionar que el excesivo compromiso que adopta el investigador frente al grupo puede llegar a provocar una identificación tan intensa que altere su objetividad y distorsione su percepción; que acepte, dentro del grupo investigado, una sola de las posiciones posibles; y los enormes costos que pueden estar asociados a trabajos de tan larga duración.

     

    En la práctica, es conveniente efectuar las tareas de observación en equipo, para tener una mayor cobertura de los sucesos y para evitar los siempre posibles errores de percepción. Los datos pueden ser así confrontados o cotejados luego de su obtención par enmendar errores o superar los vacíos que puedan existir. Cuando los sucesos de interés se dan dentro de colectividades pequeñas o muy sensibles, es preferible reducir el número de observadores, pues una presencia colectiva puede causar más daños que beneficios.

     

    Debemos distinguir también entre observaciones de situaciones producidas espontáneamente, en la misma vida social, de las que se llevan a cabo en condiciones controladas, experimentales, ya preparadas.

     

     

    Registro y formalización de la observación.

     

    La tarea de observar no es una mera percepción pasiva de hechos, situaciones o cosas...

     

    Hablábamos de una percepción activa, lo cual significa seleccionar, organizar y relacionar los datos referentes a nuestro problema. No todo lo que aparece en el campo del observador tiene importancia y, si la tiene, no siempre en el mismo grado; no todos los datos se refieren a las mismas variables o indicadores y es preciso estar alerta para discriminar adecuadamente todo este conjunto posible de informaciones.

     

    Resulta indispensable registrar toda observación que se haga, para poder organizar luego lo percibido en un conjunto coherente. Los medios más comúnmente utilizados son: cuadernos de campo, diarios, cuadros de trabajo, gráficos y mapas.

     

    El problema del registro puede llegar a ser sumamente delicado cuando se trata de la observación de fenómenos de tipo social. En muchas circunstancias es prácticamente imposible tomar notas durante el transcurso de la observación, pues ello originaría sospechas y recelo. En situaciones extremas, no habrá más remedio que confiar en la memoria, con todas las limitaciones que esto supone. Este inconveniente se allana cuando los observadores son varios, ya que pueden redactar independientemente sus informes para luego compararlos entre sí, completando y depurando los datos obtenidos.

     

    En cuanto a los datos para registrar, es posible adoptar diversas posiciones. Puede actuarse con suma flexibilidad, recogiendo sólo aquellos datos que van apareciendo, anotando las impresiones generales que causan los sucesos, de una manera espontánea y poco organizada. Se trata de una observación no estructurado o no formalizada, que ofrece las ventajas de su gran capacidad de adaptación frente a sucesos inesperados y de no pasar por alto ningún aspecto importante que pueda producirse.

     

    Este tipo de observación generalmente se lleva a cabo en un estudio piloto, cuando no se conoce muy bien la muestra que se va a estudiar.

     

    Cuando establecemos de antemano una pauta de observación explícita en que se detalla qué datos habremos de recoger, llamamos a la observación estructurada o formalizada. Aquí la ventaja principal es que recogemos datos que pueden cuantificarse más fácilmente, debido a su homogeneidad, y que podemos tener la certeza de no haber olvidado registrar ninguno de los aspectos principales del problema en estudio. Su desventaja radica en su poca flexibilidad frente a circunstancias no previstas pero que pueden llegar a ser interesantes o importantes para la investigación.

     

    La observación estructurada se lleva a cabo cuando se pretende probar una hipótesis, o cuando se quiere hacer una descripción sistemática de un fenómeno; es decir, cuando estamos realizando un estudio o investigación en el que sabemos exactamente lo que vamos a investigar.

     

    Por ejemplo, si vamos a observar el grado de agresividad de un niño mediante la frecuencia con que se presenta la conducta, en sus diferentes grados, primero definiremos qué queremos decir con conducta agresiva y cuáles son sus manifestaciones:

     

     

    Identificación del niño: (se puede dar su nombre, o hacer referencia a alguna característica física o a algún número que permita identificarlo).

     

     

     

    1

    2

    3

    4

    5

    Golpeó a un niño cerca de él.

     

     

     

     

     

     

    Golpeó a un niño que estaba lejos de él.

     

     

     

     

     

     

    Le dijo palabras insultantes a un niño cerca de él.

     

     

     

     

     

     

    Le dijo palabras insultantes a un niño que estaba lejos de él.

     

     

     

     

     

     

     

    También pueden realizarse observaciones semiestructuradas, detallando más o menos la pauta de observación según las necesidades y posibilidades.

     

     

    LA ENTREVISTA.

     

     

    La entrevista es una forma específica de interacción social que tiene por objeto recolectar datos para una indagación.

     

    El investigador formula preguntas a las personas capaces de aportarle datos de interés, estableciendo un diálogo, donde una de las partes busca recoger informaciones y la otra es la fuente de esas informaciones.

     

    La ventaja esencial de la entrevista reside en que son los mismos actores sociales quienes proporcionan los datos relativos a sus conductas, opiniones, deseos, actitudes y expectativas. Nadie mejor que la misma persona involucrada para hablarnos acerca de aquello que piensa y siente, de lo que ha experimentado o piensa hacer.

     

    Pero existe un importante inconveniente que limita sus alcances. Cualquier persona entrevistada podrá hablarnos de aquello que le preguntemos pero siempre nos dará la imagen que tiene de las cosas, lo que cree que son, a través de su carga subjetiva de intereses, prejuicios y estereotipos. La propia imagen que el entrevistado tiene de sí mismo podrá ser radicalmente falsa y, en todo caso, estará siempre idealizada, distorsionada, mejorada o retocada.

     

    Este problema nos obliga a dejar fuera de esta técnica a problemas y temas que son mejor explorados por medio de otros procedimientos. Por otra parte, nos obliga a utilizar, a veces, caminos indirectos, mediante preguntas que alcancen nuestro objetivo elípticamente, utilizando rodeos. Es clásico el ejemplo de que las personas nunca contestan la verdad respecto de sus ingresos personales en dinero, ya sea porque los disminuyen (ante el temor de estar frente a algún inspector de impuestos), o porque los aumentan (con fines de ostentación social o para reforzar su autoestima).

     

    Para que una entrevista tenga éxito, es preciso prestar atención a una serie de factores: es importante que la apariencia exterior del entrevistador resulte adecuada al medio social donde habrá de formular sus preguntas. El entrevistador habrá de ser una persona de por lo menos una cultura media, que comprenda el valor y la importancia de cada dato recogido y la función que su trabajo desempeña en el conjunto de la investigación. Tendrá que ser mentalmente ágil, no tener prejuicios marcados frente a ninguna categoría de personas y, sobre todo, ser capaz de dejar hablar libremente a los demás, eliminando por completo todo intento de convencerlos, apresurarlos, o agredirlos con sus opiniones. La entrevista habrá de realizarse a las horas más apropiadas para las personas que responden, teniendo en cuenta que su posible duración no afecte la confiabilidad de los datos.

     

    Lo que vulgarmente se llama entrevista es una técnica que en realidad se denomina entrevista no estructurada, y lo que suele llamarse encuesta es igual a lo que denominamos, en metodología, entrevista estructurada.

     

    Las entrevistas más estructuradas serán aquellas que predeterminen en una mayor medida las respuestas por obtener, que fijan de antemano sus elementos con más rigidez, mientras que las entrevistas informales serán las que transcurran de un modo más espontáneo, libre, sin sujetarse a ningún canon establecido.

     

     

    Entrevistas no estructuradas:

     

    Una entrevista no estructurada o no formalizada es aquella en que existe un margen más o menos grande de libertad para formular las preguntas y las respuestas. No se guían por un cuestionario o modelo rígido.

     

    • Entrevista formal: Es la modalidad menos estructurada posible de entrevista, ya que se reduce a una simple conservación sobre el tema en estudio. Lo importante no es definir los límites de lo tratado ni ceñirse a algún esquema previo, sino "hacer hablar" al entrevistado, de modo de obtener un panorama de los problemas más salientes, de los mecanismos lógicos y mentales del respondente, de los temas que para él resultan de importancia.

     

     

    Es de gran utilidad en estudios exploratorios y recomendable cuando se trata de abordar realidades poco conocidas por el investigador. También suele utilizarse en las fases iniciales - aproximativas - de investigaciones de cualquier naturaleza, recurriendo a informantes claves que pueden ser expertos sobre el tema en estudio, líderes formales o informales, personalidades destacadas o cualquier persona que posea información para la investigación.

    Lo más importante es dar al respondente la sensación clara y definida de que puede hablar libremente, alentándolo y estimulándolo para que lo haga y cuidando de no influirlo demasiado con nuestras actitudes o las palabras que decimos.

    • Entrevista focalizada: Es prácticamente tan libre y espontánea como la anterior, pero tiene la particularidad de concentrarse en un único tema. El entrevistador deja hablar sin restricciones al entrevistado, proponiéndole apenas algunas orientaciones básicas pero, cuando éste se desvía del tema original, el entrevistador vuelve a centrar la conversación sobre el primer asunto.

     

     

    Se emplea normalmente con el objeto de explorar a fondo alguna experiencia vivida por el entrevistado o cuando nuestros informantes son testigos presenciales de hechos de interés o de acontecimientos históricos.

    Requiere de gran habilidad en su desarrollo, para evitar tanto la dispersión temática como caer en formas más estructuradas de interrogación.

    • Entrevista por pautas o guías: Se guían por una lista de puntos que se van explorando en el curso de la entrevista. Los temas deben guardar una cierta relación entre sí. El entrevistador hace muy pocas preguntas directas, y deja hablar al respondente siempre que vaya tocando alguno de los temas señalados en la pauta o guía.

     

     

    Se usan en situaciones parecidas a las anteriores y cuando se presentan casos en que los sujetos investigados prefieren más un desarrollo flexible que uno rígido, por sus propias actitudes culturales o necesidades.

    Todas estas formas de entrevistas (que tienen en común su poca formalización) poseen la ventaja de permitir un diálogo más profundo y rico, de presentar los hechos en toda su complejidad, captando no sólo las respuestas a los temas elegidos sino también las actitudes, valores y formas de pensar de los entrevistados.

     

    Su principal inconveniente radica en que es poco práctico sistematizar un gran número de entrevistas de este tipo, organizándolas estadísticamente, pues pueden tener muy pocos puntos de contacto entre sí. Otra dificultad es su costo, pues involucran la presencia de personal altamente especializado durante tiempos relativamente largos.

     

    Los problemas de registro pueden ser importantes, pues existe un gran número de palabras que es casi imposible de registrar en su totalidad. Pueden utilizarse grabadores, aunque es preciso determinar previamente si la presencia de estos aparatos cohibe o no a los informantes.

     

     

    Entrevistas formalizadas:

     

    Se desarrollar en base a un listado fijo de preguntas cuyo orden y redacción permanece invariable. Comúnmente se administran a un gran número de entrevistados para su posterior tratamiento estadístico.

     

    Entre sus principales ventajas, podemos mencionar su rapidez y el hecho de que pueden ser llevadas a cabo por personas con mediana preparación, lo cual redunda en su bajo costo. Otra ventaja es su posibilidad de procesamiento matemático.

     

    Su mayor desventaja radica en que reducen grandemente el campo de información, limitando los datos a los que surgen de una lista taxativa de preguntas.

     

    Esta lista de preguntas, que es el instrumento concreto de recolección empleado en este caso, recibe el nombre de cuestionario y puede ser administrado sin que necesariamente medie una entrevista. Debe ser cuidadosamente redactado, evitando preguntas demasiado generales, confusas o de doble sentido, y tratando de conservar un orden lo más natural posible.

     

    Las preguntas suelen dividirse en dos grandes tipos:

     

    • Preguntas de alternativas fijas o cerradas: Formalizan más el cuestionario, pues en ellas sólo se otorga al entrevistado la posibilidad de elegir entre un número limitado de respuestas posibles. Si se pregunta "¿cree usted en los OVNIS, sí o no?", estamos realizando una pregunta cerrada. No importa la cantidad de alternativas ofrecidas, si el respondente no puede elegir una respuesta que esté fuera de la lista, la pregunta se considera cerrada. Hay que tener sumo cuidado en la redacción de estas alternativas, procurando especialmente que sean exhaustivas y mutuamente excluyentes, y evitando que estimulen a responder en un sentido determinado.

     

    • Preguntas de final abierto o abiertas: Proporcionan una variedad más amplia de respuestas. Su redacción debe ser muy cuidadosa para evitar respuestas erróneas o confusas, y para evitar que ellas predispongan al entrevistado en uno u otro sentido. Un ejemplo de pregunta abierta sería: "¿Qué opina usted acerca de los OVNIS?". La información que se obtendrá será mucho más completa y valiosa, pero el trabajo de procesamiento de los datos tendrá que ser mucho mayor.

     

    Una vez que se redacta el conjunto de preguntas que constituyen un cuestionario, es necesario revisarlas para asegurarse de su consistencia y eliminar los posibles errores y omisiones. Casi siempre se realiza una prueba piloto, que consiste en administrar el cuestionario a un conjunto reducido de personas para calcular su duración, conocer sus dificultades y corregir sus defectos, antes de aplicarlo a la totalidad de la muestra.

     Tipos de cuestionarios.

     

    La forma o tipo de cuestionario depende tanto de los objetivos que persiga la investigación, como de los informantes:

     

    • Cuestionarios abiertos. Son aquellos en los que se pregunta al sujeto algo y se le deja en libertad de responder como quiera. Este tipo de cuestionario es muy útil y proporciona mucha información, pero requiere más tiempo por parte del informante y es más difícil de analizar y codificar por parte del investigador. Generalmente, se aplican en estudios pilotos con el fin de obtener más datos.

     

     

    Serían ejemplos de preguntas abiertas: ¿Qué piensa usted de la planificación familiar? ¿Cuál es su opinión acerca del presidente X? ¿Qué le parecen los productos Y?

    • Cuestionarios cerrados. Están estructurados de tal manera que al informante se le ofrecen sólo determinadas alternativas de respuesta. Es más fácil de codificar y contestar. Como desventaja, podemos mencionar que las categorías que se ofrecen pueden no ser las más adecuadas, o que la persona no haya pensado sus respuestas en términos de las categorías que se le ofrecen. Otra desventaja es que, al ofrecerle categorías al informante, se le están "sugiriendo" las respuestas. Entre los cuestionarios cerrados, tenemos:

     

     

  • Preguntas con opciones: el sujeto tiene dos o más opciones para contestar. Por ejemplo:

  •  

     

      • ¿Prefiere algún perfume en especial?

     

    SÍ NO

      • Los negros son superiores a los blancos:

     

    Correcto Incorrecto

      • Indique los artículos que más han aumentado de precio:

     

    Automóviles Casas Comida

    Electricidad Ropa Combustible

    Gas Otros

  • Listas de preferencias y ordenamientos de opciones: al sujeto se le presenta una serie de afirmaciones, frases, opciones, etc. y él las debe ordenar según su grado de preferencia. Por ejemplo:

  •  

     

    Coloque en orden de mayor a menor las actividades que prefiere realizar en su tiempo libre:

    Leer Ir al teatro

    Ver TV Descansar

    Salir con amigos Otras

    Ir al cine

    Con respecto a los cuestionarios enviados por correo, el punto más importante que debe considerarse es que, por lo general, el porcentaje de personas que lo devuelven es muy reducido y, además, la muestra que contesta los cuestionarios, está sesgada; es decir, puede tener alguna característica en común, por ejemplo, cierto interés en el tema, y dar un tipo especial de respuestas.

     

     

    SOCIOGRAMA.

     

    Consiste en un gráfico en que se expresan las atracciones y repulsiones que los miembros de un determinado grupo experimentan entre sí, siendo por ello de suma utilidad para detectar fenómenos tales como liderazgo, existencia de subgrupos internos y anomia.

     

    Se construye pidiendo a cada miembro que señale a las personas que más congenian con él y las que menos lo atraen. Esta información se recoge mediante el uso de breves cuestionarios de dos o tres preguntas, y luego es procesada para construir el diagrama correspondiente.

     

     

    TESTS PSICOLÓGICOS.

     

    Emplean una gran variedad de técnicas específicas. Una buena proporción de ellos utiliza la formulación de preguntas anotadas en algún formulario apropiado (el test) y que por lo general se autoadministra. En otros casos, se propone a la persona la realización de ciertas actividades pautadas y se observa su desarrollo. Se registra el tiempo empleado en su ejecución, las reacciones que se producen, el desempeño de ciertos roles, etc.

     

    Desde un punto de vista general, estos tests pueden considerarse como observaciones realizadas en condiciones artificiales, preparadas y definidas de antemano.

     

     

    TÉCNICAS PROYECTIVAS.

     

    Se basan en presentar algún estímulo definido a los sujetos para que ellos expresen libremente, a partir de estos estímulos, lo que piensan, sienten o ven.

     

    Generalmente, se trata de dibujos, manchas, fotografías u otros elementos similares, aunque también se apela a veces a estímulos verbales o auditivos. La recolección de datos, normalmente, se hace por medio de entrevistas poco formalizadas.

     Bibliografía:

     

    Tenorio Bahena, Jorge. INVESTIGACIÓN DOCUMENTAL. 3ª ed. México (1988). Ed. Mac Graw - Hill.

    Pick, Susan y López, Ana Luisa. CÓMO INVESTIGAR EN CIENCIAS SOCIALES. 5ª ed. México (1994). Ed. Trillas S.A.

    Tamayo y Tamayo, Mario. EL PROCESO DE LA INVESTIGACIÓN CIENTÍFICA. 3ª ed. México (1998). Ed. Limusa S.A.

    Sabino, Carlos A. EL PROCESO DE INVESTIGACIÓN. Argentina (1996). Ed. Lumen - Humanitas.

     ORDENAMIENTO DE DATOS.

     

    Los datos son colecciones de cualquier cantidad de observaciones relacionadas. Una colección de datos se conoce como conjunto de datos, y una sola observación es un punto de dato.

     

    Para que los datos sean útiles, necesitamos organizar nuestras observaciones, de modo que podamos distinguir patrones y llegar a conclusiones lógicas.

    Búsqueda de un patrón significativo en los datos:

     

    Existen muchas formas de organizar los datos. Podemos sólo colectarlos y mantenerlos en orden; o si las observaciones están hechas con números, entonces podemos hacer una lista de los puntos de dato de menor a mayor según su valor numérico. Pero si los datos son trabajadores especializados o los distintos tipos de automóviles que ensamblan todos los fabricantes, debemos organizarlos de manera distinta. Necesitaremos presentar los puntos de dato en orden alfabético o mediante algún principio de organización. Una forma común de organizar los datos consiste en dividirlos en categorías o clases parecidas y luego contar el número de observaciones que quedan dentro de cada categoría. Este método produce una distribución de frecuencias.

     

    El objetivo de organizar los datos es permitirnos ver rápidamente algunas de las características de los datos que hemos recogido: el alcance (los valores mayor y menor), patrones evidentes, alrededor de qué valores tienden a agruparse los datos, qué valores aparecen con mayor frecuencia, etc.

     

     

    RECOMENDACIONES:

     

    Al plantear un estudio estadístico, definir claramente la población objeto de análisis.

     

    Si se trabaja con muestras, definir las condiciones que deben reunir antes de extraerlas.

     

    Especificar qué se va a medir, las unidades a usar y la forma de registro.

     

    Datos sin procesar:

     

    La información obtenida, antes de ser organizada y analizada, se conoce como datos sin procesar puesto que aún no han sido tratados mediante ningún método estadístico.

     

    La cantidad de datos más grande y los detalles más minuciosos pueden no contener la información más útil para la toma de decisiones administrativa. Una parte importante de la planeación de sistemas de información administrativa consiste en resumir y presentar los datos de modo que se pueda obtener la información crítica de manera rápida y sencilla.

     

     

    Ordenamiento de datos utilizando su arreglo y distribución de frecuencias:

     

    La ordenación de datos es una de las formas más sencillas de presentarlos, los forma en orden ascendente o descendente.

     

    Ventajas:

     

  • Podemos notar rápidamente los valores mayor y menor de los datos.

  • Podemos dividir fácilmente los datos en secciones.

  • Podemos ver si algunos de los valores aparecen más de una vez en ese ordenamiento.

  • Podemos observar la distancia entre valores sucesivos de datos.

  •  

    En ocasiones, un ordenamiento de datos no resulta útil. Debido a que da una lista de todos los valores, es una forma incómoda de mostrar grandes cantidades de datos.

     

     

    La distribución de frecuencias.

     

    Una forma en que podemos comprimir los datos es la tabla de frecuencias o distribución de frecuencias. Las distribuciones de frecuencias sacrifican algunos detalles, pero ofrecen nuevas perspectivas sobre los patrones de datos.

     

    Una distribución de frecuencias es una tabla en la que los datos se organizan en clases, es decir, en grupos de valores que describen una características de los datos.

     

    Una distribución de frecuencias muestra el número de observaciones del conjunto de datos que caen en cada una de las clases.

     

    Características de las distribuciones de frecuencias relativas.

     

    También podemos expresar la frecuencia de cada valor como una fracción o un porcentaje del número total de observaciones. Para obtener este valor, dividimos la frecuencia de esa clase entre el número total de observaciones del conjunto de datos. La respuesta se puede expresar como una fracción, un número decimal o un porcentaje.

     

    La suma de todas las frecuencias relativas es igual a 1,00 o a 100%. Esto es así debido a que una distribución de frecuencias relativas aparea a cada clase con su fracción o porcentaje apropiados del total de datos. Por consiguiente, las clases que aparecen en cualquier distribución de frecuencias, ya sean relativas o simples, son completamente inclusivas. Todos los datos caen en una u otra categoría. Las clases son mutuamente exclusivas, es decir, ningún punto de dato cae en más de una categoría.

     

    En las distribuciones de frecuencias no aparecen clases que se traslapen.

     

    Podemos, también, clasificar la información de acuerdo con características cualitativas, como raza, religión y sexo, que no entran de manera natural en clasificaciones numéricas. Como clases de atributos cuantitativos, éstas deben ser completamente inclusivas y mutuamente exclusivas.

     

    La categoría "otros" se conoce como clase de extremo abierto cuando permite que el extremo inferior o el superior de una clasificación cuantitativa no esté limitado.

     

    Los esquemas de clasificación pueden ser tanto cuantitativos como cualitativos y tanto discretos como continuos. Las clases discretas son entidades separadas que no pasan de una clase discreta a otra sin que haya un rompimiento. Los datos discretos son aquellos que pueden tomar sólo un número limitado de valores.

     

    Los datos continuos pasan de una clase a otra sin que haya un rompimiento. Implican mediciones numéricas. Los datos continuos pueden expresarse con números fraccionarios o con enteros.

     

    Las variables discretas son cosas que se pueden contar y las continuas son cosas que aparecen en algún punto de una escala.

     

     

    Construcción de una distribución de frecuencias:

     

    Pasos:

     

  • Decidir el tipo y número de clases para dividir los datos. De acuerdo con la medida cuantitativa o un atributo cualitativo. Necesitamos decidir cuántas clases distintas usar y el alcance que cada clase debe cubrir. el alcance total debe dividirse entre clases iguales, esto es, el ancho del intervalo, tomado desde el principio de una clase hasta el principio de la clase siguiente, necesita ser el mismo para todas las clases.

  •  

    El número de clases depende del número de puntos de dato y del alcance de los datos recolectados. Cuantos más puntos de dato se tengan o cuanto más grande sea el alcance, más clases se necesitarán para dividir los datos. Como regla general, los estadísticos rara vez utilizan menos de 6 y más de 15 clases.

     

    Debido a que necesitamos hacer los intervalos de clase de igual tamaño, el número de clases determina el ancho de cada clase.

     

    Ancho de los intervalos de clase = (valor unitario siguiente después del valor más grande

    de los datos - valor más pequeño de los datos) / número total de intervalos

     

    Debemos utilizar el siguiente valor más alto de las mismas unidades, ya que estamos midiendo el intervalo entre el primer valor de una clase y el primer valor de la siguiente.

     

     

  • Clasificar los puntos de dato en clases y contar el número de datos que hay en cada clase.

  •  

  • Ilustrar los datos en un diagrama.

  •  

     

    Representación gráfica de las distribuciones de frecuencias:

     

    Las gráficas dan los datos en un diagrama de dos dimensiones. Sobre el eje horizontal podemos mostrar los valores de la variable (la característica que estamos midiendo). Sobre el eje vertical señalamos las frecuencias de las clases mostradas en el eje horizontal.

     

    Las gráficas de distribuciones de frecuencias simples y de distribuciones de frecuencias relativas son de utilidad debido a que resaltan y aclaran los patrones que no se pueden distinguir fácilmente en las tablas. Atraen la atención del que las observa hacia los patrones existentes en los datos. Las gráficas pueden también ayudarnos a resolver problemas concernientes a las distribuciones de frecuencias. Nos permitirán estimar algunos valores con sólo una mirada y nos proporcionarán una verificación visual sobre la precisión de nuestras soluciones.

     

     

    Histogramas.

     

    Un histograma consiste en una serie de rectángulos, cuyo ancho es proporcional al alcance de los datos que se encuentran dentro de una clase, y cuya altura es proporcional al número de elementos que caen dentro de cada clase. Si las clases que utilizamos en la distribución de frecuencias son del mismo ancho, entonces las barras verticales del histograma también tienen el mismo ancho. La altura de la barra correspondiente a cada clase representa el número de observaciones de la clase. Como consecuencia, el área contenida en cada rectángulo (ancho por altura) ocupa un porcentaje del área total de todos los rectángulos igual al porcentaje de la frecuencia de la clase correspondiente con respecto a todas las observaciones hechas.

     

    Un histograma que utiliza las frecuencias relativas de los puntos de dato de cada una de las clases, en lugar de usar el número real de puntos, se conoce como histograma de frecuencias relativas. Este tipo de histograma tiene la misma forma que un histograma de frecuencias absolutas construido a partir del mismo conjunto de datos. Esto es así debido a que en ambos, el tamaño relativo de cada rectángulo es la frecuencia de esa clase comparada con el número total de observaciones.

     

     

    Polígonos de frecuencias.

     

    Son otra forma de representar gráficamente distribuciones tanto de frecuencias simples como relativas. Para construir un polígono de frecuencias señalamos éstas en el eje vertical y los valores de la variable que estamos midiendo en el eje horizontal. A continuación, graficamos cada frecuencia de clase trazando un punto sobre su punto medio y conectamos los resultantes puntos sucesivos con una línea recta para formar un polígono.

     

    Se añaden dos clases, una en cada extremo de la escala de valores observados. Estas dos nuevas clases que contienen cero observaciones permiten que el polígono alcance el eje horizontal en ambos extremos de la distribución.

     

    Un polígono de frecuencias es sólo una línea que conecta los puntos medios de todas las barras de un histograma. Por consiguiente, podemos reproducir el histograma mediante el trazado de líneas verticales desde los límites de clase y luego conectando tales líneas con rectas horizontales a la altura de los puntos medios del polígono.

     

    Un polígono de frecuencias que utiliza frecuencias relativas de puntos de dato en cada una de las clases, en lugar del número real de puntos, se conoce como polígono de frecuencias relativas. Este polígono tiene la misma forma que el polígono de frecuencias construido a partir del mismo conjunto de datos, pero con una escala diferente en los valores del eje vertical.

     

    Ventajas de los histogramas:

     

    • Los rectángulos muestran cada clase de la distribución por separado.

    • El área de cada rectángulo, en relación con el resto, muestra la proporción del número total de observaciones que se encuentran en esa clase.

     

    Ventajas de los polígonos de frecuencias:

     

    • Es más sencillo que su correspondiente histograma.

    • Traza con más claridad el perfil del patrón de datos.

    • Se vuelve cada vez más liso y parecido a una curva conforme aumentamos el número de clases y el número de observaciones.

     

    Un polígono alisado mediante el aumento de clases y de puntos de dato se conoce como curva de frecuencias.

    Ojivas.

     

    Una distribución de frecuencias acumuladas nos permite ver cuántas observaciones están por encima de ciertos valores, en lugar de hacer un mero registro del número de elementos que hay dentro de los intervalos.

     

    La gráfica de una distribución de frecuencias acumuladas se conoce como ojiva.

     

    En ocasiones, la información que utilizamos se presenta en términos de frecuencias acumuladas "mayores que". La ojiva adecuada para tal información tendría una inclinación hacia abajo y hacia la derecha, en lugar de tener una inclinación hacia arriba y a la derecha.

     

    Podemos construir una ojiva de una distribución de frecuencias relativas de la misma manera en que trazamos la ojiva de una distribución de frecuencias absolutas. Sólo habrá un cambio: la escala del eje vertical.

     

    Del ordenamiento de datos podemos construir distribuciones de frecuencias. A partir de las distribuciones de frecuencias podemos construir distribuciones de frecuencias acumuladas. A partir de éstas podemos trazar una ojiva. Y de esta ojiva podemos aproximar los valores que tenemos en el ordenamiento de datos. Sin embargo, no podemos recobrar de manera normal los datos originales exactos a partir de cualquiera de las representaciones gráficas que hemos analizado.

     

     

    Tratamiento de una variable discreta:

     

    Se utilizan los diagramas de barras, la diferencia con el histograma es que los rectángulos no se tocan entre sí; esto se debe a que, al ser la variable discreta, entre los valores sucesivos no hay valores intermedios.

     

    Las frecuencias acumuladas se grafican por medio de una ojiva en forma de escalera, debido a que la frecuencia aumenta de a saltos.

     

     

    RECOMENDACIONES:

     

     

    Cuando se trabaja con muestras, recopilar el mayor número de datos posible.

     

    Usar 5 clases como mínimo y 15 como máximo para agrupar los datos, en función del número de datos disponibles.

     

    Trabajar con intervalos de clase de igual longitud.

     

    Tener cuidado con la clasificación automática que hacen los paquetes estadísticos.

     

    Al calcular frecuencias relativas - como proporción - trabajar con cuatro dígitos después de la coma, para evitar errores de redondeo en la suma.

     

    Al dibujar un gráfico, no exagerar la escala vertical u horizontal. Un gráfico desproporcionado complica su interpretación y puede resultar engañoso a simple vista.

     

     

     

    CONCEPTOS:

     

    • Unidad de observación: persona o casa sobre la que se mide una o varias características de interés.

     

    • Caracteres: propiedades o rasgos que se miden en cada unidad de observación.

     

    • Variable numérica: VARIABLE. Carácter cuantitativo.

     

    • Variable categórica: ATRIBUTO. Carácter cualitativo.

     

    • Población: conjunto formado por todas las unidades objeto de un estudio estadístico. Colección de todos los elementos que se están estudiando y sobre los cuales intentamos llegar a conclusiones.

     

    • Muestra: subconjunto representativo de la población. Colección de algunos elementos, pero no de todos, de la población bajo estudio, utilizada para describir poblaciones.

     

    • Muestra representativa: muestra que contiene las características importantes de la población en las mismas proporciones en que están contenidas en la población.

     

    • Datos: colección de cualquier número de observaciones relacionadas sobre una o más variables.

     

    • Punto de dato: una sola observación de un conjunto de datos.

     

    • Arreglo de datos: organización de los datos sin procesar por observación, tomados en orden ascendente o descendente.

     

    • Clase de extremo abierto: clase que permite que el extremo superior o inferior de un esquema de clasificación cuantitativo no tenga límite.

     

    • Conjunto de datos: una colección de datos.

     

    • Curva de frecuencias: polígono de frecuencias alisado mediante el aumento de clases y puntos de dato a un conjunto de datos.

     

    • Datos continuos: datos que pueden pasar de una clase a la siguiente sin interrumpirse y que pueden expresarse mediante números enteros o fraccionarios. Datos numéricos que admiten infinitos valores entre dos valores cualesquiera; generalmente surgen de una medición.

     

    • Datos discretos: datos que no pasan de una clase a la siguiente sin que haya una interrupción; esto es, donde las clases representan categorías o cuentas distintas que pueden representarse mediante números enteros. Datos numéricos que no admiten valores intermedios entre dos valores sucesivos; generalmente surgen de un conteo.

     

    • Datos sin procesar: información antes de ser organizada o analizada por métodos estadísticos. Conjunto de datos que no han recibido ningún tratamiento estadístico.

     

    • Datos tratados: conjunto de datos que ha sido objeto de algún tipo de ordenamiento o procesamiento.

     

    • Intervalo de clase: agrupamiento de valores de una variable.

     

    • Alcance de los datos: diferencia entre el mayor y menor valor de la serie.

     

    • Distribución de frecuencias: despliegue organizado de datos que muestran el número de observaciones del conjunto de datos que entran en cada una de las clases de un conjunto de clases mutuamente exclusivas y colectivamente exhaustivas. Asignación de frecuencias a cada uno de los valores de una variable o atributo.

     

    • Tabla de frecuencias: tabla donde se asienta la distribución de frecuencias.

     

    • Distribución de frecuencias acumuladas: despliegue de datos en forma de tabla que muestra cuántos datos están por encima o por debajo de ciertos valores.

     

    • Distribución de frecuencias relativas: despliegue de un conjunto de datos en el que se muestra la fracción o porcentaje del total del conjunto de datos que entra en cada elemento de un conjunto de clases mutuamente exclusivas y colectivamente exhaustiva.

     

    • Histograma: gráfica de un conjunto de datos compuesta de una serie de rectángulos, cada uno con un ancho proporcional al alcance de los valores de cada clase y altura proporcional al número de elementos que entran en la clase, o altura proporcional a la fracción de elementos de la clase. Representación gráfica de la distribución de frecuencias (absoluta o relativa) de una variable continua.

     

    • Ojiva: gráfica de una distribución de frecuencias acumuladas absolutas o relativas.

     

    • Polígono de frecuencias: línea que une los puntos medios de cada clase de un conjunto de datos, trazada a la altura correspondiente a la frecuencia de datos. Representación gráfica de la distribución de frecuencias en forma suavizada de una variable continua.

     

    • Diagrama de barras: representación gráfica de la distribución de frecuencias de un atributo o de una variable discreta.

     

    • Frecuencia absoluta: número de veces que se repite un determinado valor de una variable o atributo.

     

    • Frecuencia relativa: proporción o porcentaje de veces que se repite un valor.

     

    BIBLIOGRAFÍA: RICHARD I. LEVIN - DAVID S. RUBIN, ESTADÍSTICA PARA ADMINISTRADORES, ED. PRENTICE HALL, SEXTA ED.,  1996

    ANÁLISIS DE DATOS

    Bibliografía.:

    COHEN Y MANION

    COLÁS Y BUENDÍA

    TAYLOR Y BODJAN

    Una investigación cualitativa puede concluir con datos numéricos. el tratamiento de eta información será estadístico. La representación también puede seguir los mismos cánones que en investigación cuantitativa

    1.-Fiabilidad y Validez en investigación cualitativa

    Validez en la medida: que la información obtenida represente de modo fidedigno las dimensiones del fenómeno analizado

    Fiabilidad en la medida: consistencia de los datos

    Es difícil la medición en instrumentos no mecánicos (balanzas) sino humanos o cualitativos (investigador, cuestionarios,...)

    2.-Validez y Fiabilidad en la Observación

    Fiabilidad: ante un mismo hecho hacer la misma observación, por ejemplo con dos observadores. También se utilizan coeficientes de correlación entre las puntuaciones dadas por los observadores. La solución pasa por el entrenamiento de los observadores

    Validez: cuando las categorías a observar no están definidas largamente ¿estamos registrando realmente el fenómeno que queremos?

    Solución: disminuir la posible interpretación categorizando al máximo previamente

    3.-Fiabilidaz y Validez en las encuestas postales

    Validez: Problemas: no conocemos quien ha contestado y quién no, no estamos seguros de a qué e responden los cuestionarios devueltos, puede ser que los no devueltos se deba a alguna causa que puede repetirse uniformemente para todos, lo cual implicaría un sesgo en la recogida de datos.

    Casos posibles:

    1.- Que no se haya contestado con precisión.

    solución: entrevistas de forma intensiva (aleatoriamente a algunos) para constatar que sus respuestas dicen lo que realmente querían decir. Se evita a priori a través de una encuesta piloto

    2.- No hay devolución

    Solución: igualmente con entrevista a los que no han contestado y hacer una correlación entre unos y otros (no sobre las causas de la contestación sino sobre las respuestas entre unos y otros) se ven si existen diferencias significativas entre un grupo y otro.

    4.-Fiabilidad y validez en las entrevistas

    Validez superficial: que midan lo que deben medir. Existen otros tipos de validez más importantes.

    Elementos de sesgo: el entrevistador, el informante, la formulación delas preguntas.

    El investigador puede enfatizar o incidir en las cuestiones que efectivamente confirmen su hipótesis.

    El informante puede mentir ("Parcialidad en las respuestas") . Se puede observar que varios entrevistado sistemáticamente "mienten " en las mismas respuestas en la misma dirección (p.e. si se habla de ganancias o de pago de impuestos)

    Solución: buscar otras fuentes de información (análisis documental) triangulación.

    En las entrevistas, fiabilidad y validez son inversamente proporcionales: cuanto más estructuradas mas fiables pero menos válidas(sólo recogemos unos elementos y no otros) Dependerá de la investigación el emplear una u otra.

    Existen modos de limar las dificultades de cada técnica. Cada técnica tienen unas dificultades que le son propias. s i se utilizan dos técnicas las dificultades no se suman sino que se restan (es una intersección)

    Validez del informante: una vez recogidos los datos se devuelve de nuevo al informante para que valide lo dicho. Esto disminuye problemas de planteamiento de preguntas y errores de registro o interpretación de respuestas.

    5.-La triangulación

    Formalmente se da cuando existen tres puntos diferentes, pero se admiten dos o más fuentes de evidencia.

    Intenta resolver problemas de validez: una solo técnica da una fuente de error, dos técnicas se intersectan disminuyendo el error.

    Si la fuente de error es el entrevistador, la triangulación consistirá en ampliar a los entrevistadores.

    Si la fuente de error es la técnica de recogidas de datos, se utilizarán dos técnicas distintas.

    ¿Qué tipo de triangulación escoger? dependerá de los problemas que encontremos en la investigación, evitando en lo posible el incremento de complejidad en el diseño (buscar el diseño más simple posible y más válido posible)

    (cuadro 11.2 de Cohen)

    En el estudio de casos, llegado a un punto el incremento en el número de casos no supone un incremento de validez sino que esta permanece constante, decimos que la muestra está saturada: criterio de economía

    Existen dos grandes grupos de triangulación:

    - Dentro del propio método, sirve para analizar la fiabilidad del método

    - De métodos.

    ¿Cuándo es apropiada la triangulación?

    1.-Cuando lo que buscamos es la generalización de los datos

    2.-Cuando el fenómeno que analizamos es complejo y controvertido

    3.-Cuando detectamos que un sólo método puede producir distorsiones.

    El diseño más característico es el estudio de casos

    (Cuadro 11.4 de Cohen)

    (Cuadro 4 pg 106 G. P. Serrano)

    6.-El informe

    ¿Qué diferencias existen entre el informe cuantitativo y el cualitativo?

    Podemos tener interés en informar sobre elementos que no se tienen en cuenta en el cuantitativo

    En IAP o Etnográfica no existen informes standard.

    Si seguimos un esquema cuantitativo en cada apartado se puede incluir toda la información que creemos importante.

    Apartados

    1.-Introdución: descripción del contexto de la investigación y lo hecho hasta el momento

    2.- Bases teórico prácticas de la investigación: descripción de intereses, descripción del problema a resolver.

    3.- Contexto de la investigación: incluir información sobre el escenario de la investigación

    4.-Proceso de la investigación: selección de métodos, papel del investigador, evolución del problema desde el inicio, instrumentos y técnicas de recogida de datos: explicación. Proceso de análisis de datos, categorías, revisión, análisis. Hallazgos o resultados que encontramos.

    5.-Conclusiones

    Existen algunas propuestas para la IAP

    Existen normas para la redacción del informe porque es un sistema tan abierto que es necesario dar pistas para una lectura clara:

    - Expresiones y lenguaje de los participantes, entrecomillado, en u terminología para que el lector se sitúe en el contexto.

    - Ser detallado en las descripciones

    - Distinguir hechos de interpretaciones , tanto del entrevistador como de los informantes

    - Tener en cuenta la audiencia del informeidez superficial

    11.- El informe de un estudio de casos

    1.- Dependerá de la audiencia, a quien va destinado.

    2.- Existen diferentes tipos en la presentación:

    a) Escritos:

    - De un solo caso

    *Descripción del caso

    *Técnica pregunta-respuesta

    - De casos múltiples:

    *Informes independientes de cada caso con un informe final

    *A través de diferentes temas, interrelacionar todos los casos estudiados

    Siempre con un capítulo de síntesis.

    b) Orales

    c) Apoyados en medios técnicos

    3.- Procedimientos en la redacción

    a) ¿Cuando empezar?: cuanto antes

    b) Identificación del caso: Es deseable la identificación del caso lo más amplia posible por interés científico, para que otras personas puedan continuar en la investigación; pero no siempre es aconsejable por razones éticas cuando es preciso mantener la confidencialidad.

    c) Revisión del borrador: éste ha de ser leído por colegas investigadores e incluso por participantes en el estudio.

    12.- Estudio de caso ejemplar

    Un estudio de caso ejemplar debe:

    1.- Ser significativo

    2.- Ser completo

    3.- Considerar perspectivas alternativas (críticas,...)

    4.- Mostrar suficientes pruebas o indicios

    5.- Estar hecho de forma engranada.