domingo, 29 de diciembre de 2013

El cambio climático y el agotamiento de la capa de ozono plantean un enorme número de riesgos (II)

El Sistema Mundial de Observación Terrestre es un nuevo sistema patrocinado por el PNUMA, la UNESCO, la OMM, el CIUC y la Organización de las Naciones Unidas para la Agri- cultura y la Alimentación (FAO) y aportará el componente terrestre del Sistema Mundial de Observación del Clima
(OMM 1992).
Entre las medidas para reducir las inevitables consecuencias sobre la salud se encuentran: programas de preparación en caso de desastre; medidas urbanísticas para reducir el efecto de
“islote de calor” y mejorar la vivienda; la planificación del uso de la tierra para reducir al mínimo la erosión, las inundaciones repentinas y la despoblación forestal innecesaria (por ejemplo, deteniendo la creación de pastizales para la exportación de carne); la adaptación de los comportamientos personales, como evitar la exposición al sol, y esfuerzos encaminados a luchar contra los vectores y extender la vacunación. Habrá que tener en cuenta los costes no pretendidos de las medidas de adapta- ción, como un mayor uso de plaguicidas.
La excesiva dependencia de los plaguicidas no sólo conduce a la resistencia de los insectos, sino que también elimina los organismos predadores naturales que son beneficiosos. El efecto perjudicial sobre la salud pública y el medio ambiente derivado del uso actual de plaguicidas se ha estimado entre
100.000 y 200.000 millones de dólares al año (Institute of Medi- cine 1991).
Los países en desarrollo padecerán en una medida mayor y desproporcionada las consecuencias del cambio climático, aunque en la actualidad las naciones industrializadas son más responsables de la presencia de gases de efecto invernadero en la atmósfera.
En el futuro, los países más pobres influirán de un modo más significativo en la evolución del calentamiento de la Tierra, tanto por las tecnologías que decidan adoptar a medida que se acelere su desarrollo como por sus prácticas de uso de la tierra. Las naciones desarrolladas tendrán que adoptar políticas ener- géticas más racionales desde el punto de vista ambiental y trans- ferir sin demora tecnologías nuevas (y asequibles) a los países en desarrollo.

sábado, 28 de diciembre de 2013

El cambio climático y el agotamiento de la capa de ozono plantean un enorme número de riesgos (I)

El cambio climático y el agotamiento de la capa de ozono plantean un enorme número de riesgos para la salud a múltiples niveles, lo que destaca la importante relación existente entre la dinámica de los ecosistemas y el mantenimiento de la salud humana. Por tanto, las medidas preventivas han de basarse en esos sistemas, previendo las respuestas ecológicas principales al cambio climático así como los peligros físicos directos.
Algunos de los elementos clave que hay que tener en cuenta al evaluar el riesgo ecológico son las variaciones espaciales y temporales, los mecanismos de retroalimentación y el empleo de organismos de nivel inferior como indicadores biológicos tempranos.
La reducción de los gases de efecto invernadero mediante la sustitución de los combustibles fósiles por recursos energéticos renovables es la forma primaria de prevenir el cambio climático. Del mismo modo, la planificación estratégica del uso de la tierra
y la estabilización de la presión demográfica sobre el medio ambiente permitirán conservar importantes “sumideros” natu- rales de gases de efecto invernadero.
Como es posible que cierto cambio climático se produzca inevitablemente, una prevención secundaria mediante la detec- ción temprana basada en la vigilancia de los parámetros de salud obligará a establecer una coordinación sin precedentes. Por primera vez en la historia se intenta vigilar el sistema terrestre en su totalidad.
El Sistema Mundial de Observación del Clima integra Vigi- lancia Meteorológica Mundial y Vigilancia Atmosférica Mundial, programas ambos de la Organización Meteorológica Mundial (OMM), con partes del Sistema Mundial de Vigilancia del Medio Ambiente, del PNUMA. El Sistema Mundial de Observación de los Océanos es una nueva iniciativa conjunta de la Comisión Oceanográfica Intergubernamental de la Organiza- ción de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO), la OMS y el Consejo Internacional de Uniones Científicas (CIUC). Para vigilar los cambios que se produzcan en los sistemas marinos se recurrirá a mediciones por satélite y submarinas.


viernes, 27 de diciembre de 2013

Estudio de caso: Virus transmitidos por mosquitos

La encefalitis y el dengue transmitidos por mosquitos constituyen destacados ejemplos de enfermedades de vectores cuya distribu- ción está limitada por el clima. Las epidemias de encefalitis de San Luis (SLE), que es la encefalitis arbovírica más frecuente en Estados Unidos, suelen producirse al sur de la isoterma de 22 C en el mes de junio, aunque en años de calor fuera de temporada se han registrado brotes más al norte. Los brotes de la enfermedad en los humanos están estrechamente relacionados con períodos de varios días en que la temperatura supera los 27 C (Shope 1990).
Estudios sobre el terreno acerca de la SLE indican que un incremento de la temperatura en 1 C acorta notablemente el tiempo transcurrido entre la absorción de sangre por el mosquito
y la replicación vírica suficiente para crear en el vector la capa- cidad de infectar, que es lo que se denomina período de incuba- ción extrínseca. Si a esto se suma el hecho de que la supervivencia del mosquito adulto se reduce a altas temperaturas, se estima que un incremento de la temperatura de 3 a 5 C provocaría un notable desplazamiento hacia el norte de los brotes de SLE (Reeves y cols. 1994).
La zona de distribución del mosquito que es vector primario del dengue (y la fiebre amarilla), el Aedes aegypti, se extiende hasta la latitud de 35, pues a temperaturas muy frías mueren tanto las larvas como los adultos. El dengue está muy extendido en el Caribe, América tropical, Oceanía, Asia, Africa y Australia. En los últimos 15 años las epidemias de dengue se han incre- mentado tanto en número de afectados como en gravedad, espe- cialmente en los centros urbanos de los trópicos. El dengue hemorrágico es hoy una de las principales causas de hospitaliza- ción y mortalidad infantil en Asia suroriental (Institute of Medi- cine 1992). La misma pauta de ascenso de la enfermedad que se observó en Asia hace 20 años se está produciendo hoy en América.
El cambio climático podría modificar la transmisión del dengue. En 1986 se comprobó en México que el factor que mejor predice la transmisión del dengue es la temperatura media durante la temporada de lluvias, cuadriplicándose el riesgo ajus- tado entre los 17 C y los 30 C (Koopman y cols. 1991). Estu- dios de laboratorio apoyan los datos obtenidos sobre el terreno. In vitro, el período de incubación extrínseca del virus del dengue de tipo 2 es de 12 días a 30 C y sólo de siete días entre 32 y 35 C (Watts y cols. 1987). El hecho de que la temperatura acorte el período de incubación en cinco días hace posible que la tasa de transmisión de la enfermedad se multiplique por tres (Koopman y cols. 1991). Por último, el aumento de la tempera- tura provoca la eclosión de adultos más pequeños, que han de picar con más frecuencia para desarrollar una puesta de huevos. En resumen, la ascenso de las temperaturas puede hacer que haya más mosquitos infecciosos y que piquen con más frecuencia
(Focks y cols. 1995).

jueves, 26 de diciembre de 2013

Mitigación y adaptación


Para afrontar los retos que para la salud pública presenta el cambio climático mundial será necesario: a) un enfoque ecológico integrado; b) la reducción de los gases de efecto invernadero mediante el control de las emisiones industriales, políticas de uso de la tierra para elevar al máximo la extensión de los “sumideros” de CO2 y políticas demográficas para conseguir ambas cosas; c) la vigilancia de los indicadores biológicos tanto a escala regional como mundial; d) la adaptación de las estrategias de salud pública para reducir al mínimo los efectos del cambio climático inevitable, y e) la cooperación entre los países desarrollados y los países en desarrollo. En resumen, debe promoverse una mayor integra- ción de las políticas ambientales y de salud pública.

miércoles, 25 de diciembre de 2013

Peligros para la salud en el trabajo

Para reducir las emisiones de gases de efecto invernadero proce- dentes de los combustibles fósiles, es necesario potenciar otras fuentes renovables de energía. Son muy conocidos los peligros que presenta la energía nuclear para la salud pública y la salud en el trabajo, y será necesario proteger las instalaciones, los trabaja- dores y el combustible consumido. El metanol puede sustituir en gran parte el uso de la gasolina; ahora bien, estas fuentes emiten formaldehídos, lo que supondrá un nuevo peligro para el medio ambiente. Los materiales superconductores para la transferencia de electricidad con eficiencia energética son en su mayoría mate- riales cerámicos compuestos de calcio, estroncio, bario, bismuto, talio e itrio (OMS en prensa).
Menos se sabe sobre la seguridad en el trabajo en las unidades manufactureras de captación de la energía solar. Los principales elementos utilizados para construir las células fotovoltaicas son la sílice, el galio, el indio, el talio, el arsénico y el antimonio (OMS en prensa). La sílice y el arsénico afectan negativamente a los pulmones; el galio se concentra en el riñón, el hígado y los huesos, y las formas iónicas de indio son nefrotóxicas.
Los efectos destructivos de los CFC sobre la capa de ozono estratosférico ya se advirtieron en el decenio de 1970, y en 1978 la EPA de Estados Unidos prohibió la inclusión de esos propul- sores inertes en los aerosoles. En 1985 se despertó una preocupación generalizada cuando un equipo británico que trabajaba en la Antártida descubrió el “agujero” en la capa de ozono (Farman, Gardiner y Shanklin 1985). La posterior aprobación del Protocolo de Montreal en 1987, con modificaciones en 1990 y 1992, ha obligado ya a fuertes reducciones en la producción de CFC.
Las sustancias químicas que pueden sustituir a los CFC son los hidroclorofluorocarbonos (HCFC) y los hidrofluorocarbonos
(HFC). La presencia del átomo de hidrógeno puede facilitar la degradación de esos compuestos por los radicales hidróxilos
(OH–) en la troposfera, con lo que se reduce el potencial de agotamiento del ozono estratosférico. Esas sustancias químicas sustitutivas de los CFC son sin embargo más reactivas biológicamente que aquéllos. La naturaleza de un enlace C-H hace que estas sustancias sean proclives a la oxidación a través del sistema del citocromo P-450 (OMS en prensa).


martes, 24 de diciembre de 2013

Efectos indirectos de la UVB sobre la salud pública

Históricamente, las plantas terrestres no pudieron establecerse hasta que se formó la capa protectora de ozono, pues la UVB inhibe la fotosíntesis (PNUMA 1991a). El debilitamiento de los cultivos alimentarios que pueden resultar dañados por la UVB podría incrementar aún más las repercusiones sobre la agricultura debidas al cambio climático y la elevación del nivel del mar.
El fitoplancton está en la base de la cadena alimentaria marina y actúa también como importante “sumidero” de dióxido de carbono. El daño de la UV a esas algas en las regiones polares afectaría negativamente a la cadena alimentaria marina y agravaría el efecto invernadero. El PNUMA estima que una pérdida de fitoplancton marino del 10 % limi- taría la absorción anual de CO2 por los océanos en cinco gigato- neladas, lo que equivale a las emisiones antropogénicas anuales derivadas de la combustión de combustibles fósiles (PNUMA 1991a).

lunes, 23 de diciembre de 2013

Efectos directos de la radiación ultravioleta B sobre la salud

El ozono bloquea la penetración de la radiación ultravioleta B, que tiene longitudes de onda de 290-320 nanómetros, las más destructivas desde el punto de vista biológico. La UVB induce la formación de dímeros de pirimidina en las moléculas de ADN, lesión que, si no se repara, puede degenerar en cáncer (OIIC 1992). El cáncer de piel no melanoma (carcinoma esca- moso y de células basales) y el melanoma de extensión superficial están relacionados con la exposición a la luz solar. En las pobla- ciones occidentales, la incidencia del melanoma se ha incrementado entre un 20%y un 50% cada cinco años en los dos últimos decenios (Coleman y cols. 1993). Cuando no existe una relación directa entre la exposición acumulada a la radiación ultravioleta y el melanoma, se asocia a una exposición excesiva a la radiación ultravioleta durante la infancia. Con una reducción sostenida del 10 % de la capa de ozono estratosférica, los casos de cáncer de piel no melanoma podrían incrementarse en un 26 %, lo que equivale a 300.000 casos más al año a escala mundial; el melanoma podría incrementarse en un 20 %, lo que equivale a 4.500 casos más al año (PNUMA 1991a).
La formación de cataratas es la causa de la mitad de los casos de ceguera en el mundo (17 millones cada año) y va asociada a la radiación UVB en una relación dosis-respuesta (Taylor 1990). Los aminoácidos y los sistemas de transporte de membrana en el cristalino del ojo son especialmente proclives a la fotooxidación por los radicales de oxígeno que genera la irradiación UVB (OIIC 1992). Una duplicación de la exposición a la radicación UVB podría provocar un incremento del 60 % con respecto a los niveles actuales de cataratas corticales (Taylor y cols. 1988). El PNUMA estima que una pérdida sostenida de ozono estratos- férico del 10 % tendría como resultado cerca de 1,75 millones de casos más de cataratas cada año (PNUMA 1991a). Entre otros efectos oculares de la exposición a la radiación UVB figuran la fotoqueratitis, la fotoquerato-conjuntivitis, la pingué- cula y el pterigión (o crecimiento excesivo del epitelio conjun- tivo) y la queratopatía climática de gotitas (OIIC 1992).
La capacidad del sistema inmune para funcionar eficazmente depende del procesamiento “local” de antígenos y su presenta- ción a las células T, así como de un incremento de la respuesta “sistémica” a través de la producción de linfocinas (mensajeros bioquímicos) y de los coeficientes resultantes entre las células T colaboradoras y las células T supresoras. La UVB produce inmunosupresión a ambos niveles. En estudios con animales se ha demostrado que la UVB puede afectar al curso de enferme- dades cutáneas infecciosas, como la oncocercosis, la leishma- niasis y la dermatofitosis, y deteriorar la inmunovigilancia de las células transformadas precancerosas de la epidermis. Estudios preliminares indican además una influencia sobre la eficacia de las vacunas (Kripke y Morison 1986; OIIC 1992).

domingo, 22 de diciembre de 2013

Efectos de los desastres climáticos y de la elevación del nivel del mar sobre la salud

La expansión térmica de los océanos puede provocar una elevación del nivel del mar a un ritmo relativamente rápido, de dos a cuatro centímetros por decenio, y se espera que los extremos previstos del ciclo hidrológico ocasionen pautas climatológicas más duras y tormentas. Estos fenómenos afectarían directamente a las viviendas y a las infraestructuras de salud pública, como los sistemas de saneamiento y desagüe del agua de tormentas (IPCC 1992). Poblaciones vulnerables que viven en zonas costeras de baja altura y en pequeñas islas se verían obligadas a migrar a lugares más seguros. El hacinamiento y las deficientes condi- ciones de saneamiento de los refugiados ambientales podrían incrementar la difusión de enfermedades infecciosas como el cólera, y las tasas de transmisión de enfermedades transmitidas por vectores se elevarían considerablemente debido al hacinamiento y a la influencia potencial de los individuos infectados (OMS 1990d). La inundación de los sistemas de desagüe podría agravar aún más la situación, y también hay que tener en cuenta las repercusiones psicológicas derivadas del síndrome de estrés postraumático que sigue a las grandes tormentas.
El abastecimiento de agua dulce se reduciría debido a la intrusión salina en los acuíferos costeros y se perdería tierra agrícola costera debido a la salinización o directamente a la inunda- ción. Por ejemplo, una elevación del nivel del mar de un metro destruiría el 15 % y el 20 % de la agricultura en Egipto y Bangladesh respectivamente (IPCC 1990). En cuanto a las sequías, la adaptación de los métodos de riego podría repercutir en los lugares de cría de artrópodos e invertebrados que son vectores (algo similar por ejemplo, a la esquistosomiasis en Egipto), pero no será fácil efectuar una evaluación costes/benefi- cios de esas repercusiones.

sábado, 21 de diciembre de 2013

Abastecimiento de alimentos y nutrición humana

La malnutrición es una importante causa de mortalidad en la primera infancia y de morbilidad infantil debido a la inmunosupresión (véase “La alimentación y la agricultura”). El cambio climático podría afectar negativamente a la agricultura introdu- ciendo cambios de largo plazo, como la reducción de la humedad del suelo por evapotranspiración y, de manera más inmediata, con fenómenos climáticos extremos como las sequías, las inundaciones (y erosión) y las tormentas tropicales. Las plantas pueden beneficiarse inicialmente de la “fertilización con CO2”, que puede incrementar la fotosíntesis (IPCC 1990). Pero aun teniendo en cuenta ese fenómeno, la agricultura de los países en desarrollo se verá muy afectada: se estima que en esos países se encontrarán en una situación de riesgo de hambre de 40 a 300 millones de personas más debido al cambio climático (Sharp 1994).
Hay que tener en cuenta también los cambios ecológicos indirectos que afectan a los cultivos, pues puede modificarse la distribución de las plagas agrícolas (IPCC 1992) (véase “La alimentación y la agricultura”). Teniendo en cuenta la compleja dinámica de los ecosistemas, habrá que efectuar una evaluación completa, que vaya más allá de los efectos directos del cambio en las condiciones atmosféricas y/o en los suelos.

viernes, 20 de diciembre de 2013

Efectos marinos

El cambio climático puede afectar también a la salud pública a través de sus efectos sobre las floraciones nocivas de fitoplancton marino (o algas). El aumento de fitoplancton a escala mundial ha sido consecuencia del escaso control de la erosión, de la generosa aplicación de fertilizantes en la agricultura y de la liberación de aguas residuales en las costas, factores todos ellos que tienen como resultado unos efluentes ricos en nutrientes que fomentan el crecimiento de las algas. Las condiciones que favorecen este crecimiento podrían verse incrementadas con la prevista elevación de las temperaturas de la superficie del mar por el calentamiento de la Tierra. La sobreexplotación de peces y mariscos (consumidores de algas) y el extendido uso de plaguicidas tóxicos para esas especies contribuyen también al crecimiento excesivo del plancton (Epstein 1995).
Los principales ejemplos de enfermedades derivadas de un crecimiento excesivo de las algas son las mareas rojas, que provocan enfermedades diarreicas y de parálisis e intoxicaciones amnésicas por marisco. Se ha comprobado que el Vibrio cholerae se aloja en el fitoplancton marino; así pues, esas floraciones podrían constituir un reservorio ampliado que dé origen a epidemias de cólera (Huq y cols. 1990).

jueves, 19 de diciembre de 2013

Análisis de necesidades

El análisis de necesidades es una parte explícita del ciclo de desarrollo de Robert y Fiset (1992), corresponde al análisis funcional de Nielsen y está integrado en otras etapas (análisis de la tarea, del usuario o de las necesidades) descritas por otros autores. Consiste en identificar, analizar y organizar todas las necesidades que el sistema informático puede satisfacer. Durante este proceso se identifican las características que es necesario añadir al sistema. El análisis de la tarea y del usuario, descrito anterior- mente, debería ayudar a definir muchas de las necesidades, pero puede resultar inadecuado para definir las nuevas necesidades derivadas de la introducción de nuevas tecnologías o nuevas normativas (por ejemplo, sobre seguridad). El análisis de necesi- dades llena este vacío.
El análisis de las necesidades se lleva a cabo de la misma forma que el análisis funcional de los productos. Requiere la participación de un grupo de personas interesadas en el producto, que posea una formación, ocupación o experiencia en el trabajo complementarias. En este grupo puede haber futuros usuarios del sistema, supervisores, expertos en la materia y, si es necesario, especialistas en formación, organización del trabajo y seguridad. Asimismo, debe llevarse a cabo una revisión de la literatura científica y técnica en el campo de aplicación correspondiente, con el fin de establecer el estado actual de los conocimientos. También pueden estudiarse los sistemas competitivos usados en campos similares o relacionados. Posterior- mente, se clasifican las distintas necesidades identificadas en este análisis, se valoran y presentan en un formato adecuado para utilizarlas durante todo el ciclo de desarrollo.

miércoles, 18 de diciembre de 2013

Errores inevitables

Por último, es necesario reconocer que los usuarios cometen errores cuando utilizan los sistemas, independientemente de su nivel de preparación o de la calidad del sistema. Un estudio reciente realizado en Alemania por Broadbeck y cols. (1993) muestra que al menos el 10 % del tiempo que invierten los traba- jadores de oficina en los ordenadores está relacionado con la gestión de errores. Una de las causas de los errores es que los usuarios confían más en las estrategias de corrección que en las de prevención (Reed 1982). Los usuarios prefieren actuar rápidamente y cometer errores que después deben corregir, a trabajar más lentamente y evitar los errores. Es esencial tener en cuenta este aspecto cuando se diseñan las interfaces persona-ordenador. Además, los sistemas deberían ser tolerantes a los errores e incorporar un sistema de gestión de errores efectivo (Lewis y Norman 1986).

martes, 17 de diciembre de 2013

Desarrollo de conocimientos

El conocimiento de los usuarios se desarrolla al aumentar la expe- riencia, pero tiende a llegar rápidamente a una meseta. Ello significa que las interfaces deben ser flexibles y capaces de responder simultáneamente a las necesidades de usuarios con distintos niveles de conocimientos. En el caso ideal, deberían ser sensibles al contexto y proporcionar una ayuda personalizada. El sistema EdCoach, desarrollado por Desmarais, Giroux y Larochelle (1993) es una interfaz de este tipo. La clasificación de los usuarios en principiantes, intermedios y avanzados no es adecuada para los fines del diseño de interfaces, ya que estas definiciones son demasiado estáticas y no tienen en cuenta las variaciones individuales. Actualmente existe tecnología de la información capaz de responder a las necesidades de distintos tipos de usuarios, aunque más a un nivel de investigación que comercial (Egan 1988). El interés actual por sistemas de soporte del rendimiento sugiere que estos sistemas se desarrollarán intensamente en los próximos años.

lunes, 16 de diciembre de 2013

Aprendizaje

La analogía tiene un papel muy importante en el aprendizaje del usuario (Rumelhart y Norman 1983). Por esto, el uso de analogías o metáforas adecuadas en la interfaz facilita el aprendizaje, al maximizar la transferencia de conocimientos procedentes de situaciones o sistemas conocidos. Las analogías y metáforas inter- vienen en muchas partes de la interfaz, como los nombres de comandos y menús, los símbolos, iconos, códigos (por ejemplo, la forma y el color) y los mensajes. Cuando son pertinentes, contribuyen de forma muy importante a hacer que la interfaz resulte natural y más transparente a los usuarios. En cambio, cuando son irrelevantes, pueden entorpecer al usuario (Halasz y Moran 1982). Actualmente, las dos metáforas utilizadas en las interfaces gráficas son el escritorio y, en menor grado, la habitación. Los usuarios generalmente prefieren aprender un nuevo programa utilizándolo inmediatamente y no leyendo un manual o siguiendo un curso; prefieren un aprendizaje basado en la acción que les permite estar activos cognitivamente. Este tipo de aprendizaje, sin embargo, causa algunos problemas a los usuarios (Carroll y Rosson 1988; Robert 1989). Requiere una estruc- tura de interfaz que sea compatible, transparente, coherente, flexible, de aspecto natural y que tolere errores, así como un conjunto de características que garanticen usabilidad, retroali- mentación, sistemas de ayuda, ayudas para la navegación y manejo de errores (en este contexto, “errores” se refiere a las acciones que los usuarios desean deshacer). Las interfaces eficaces proporcionan a los usuarios una cierta autonomía durante la exploración.


domingo, 15 de diciembre de 2013

Representación mental

Los modelos mentales que los usuarios construyen de los sistemas que utilizan reflejan la forma en que reciben y entienden estos sistemas. Es por esto que los modelos pueden variar dependiendo de los conocimientos y experiencia de los usuarios (Hutchins 1989). Con el fin de minimizar la curva de aprendizaje y facilitar el uso del sistema, el modelo conceptual en el que se basa un sistema debería ser similar a la representación mental que tiene el usuario de dicho sistema. Es necesario reconocer, sin embargo, que estos dos modelos nunca son idénticos. El modelo mental se caracteriza por el hecho de que es personal (Rich 1983), incompleto, variable entre distintas partes del sistema, posiblemente equivocado en algunos puntos y en constante evolución. Su papel en las tareas rutinarias es secundario, pero resulta esencial en las tareas no rutinarias y durante el diagnóstico de problemas (Young 1981). En estos últimos casos, los usuarios no pueden trabajar correctamente si no cuentan con un modelo mental adecuado. El reto para los diseñadores de interfaces es diseñar sistemas cuya interacción con los usuarios induzcan a estos últimos a formar modelos mentales similares al modelo conceptual del sistema.

sábado, 14 de diciembre de 2013

Análisis del usuario

El otro pilar del diseño de interfaces es el análisis de las características del usuario. Las características relevantes pueden estar relacio- nadas con la edad, sexo, idioma, nivel cultural, formación, conocimientos técnicos o de informática, cualificación o motivación del usuario. Las variaciones en estos factores individuales son las responsables de las diferencias en y entre grupos de usua- rios. Uno de los principios básicos del diseño de interfaces es, por lo tanto, que no existe un usuario medio. Es necesario, por lo tanto, identificar distintos grupos de usuarios y sus características. Se debe impulsar a los representantes de cada grupo a que participen en el en los procesos de diseño y evaluación de las interfaces.
Por otra parte, se pueden utilizar técnicas psicológicas, ergonómicas y de ingeniería cognitiva para obtener información sobre las características de los usuarios relativas a la percepción, memoria, representación cognitiva, toma de decisiones y apren- dizaje (Wickens 1992). Es evidente que la única manera de desarrollar interfaces que sean realmente compatibles con los usuarios es tener en cuenta el efecto de las diferencias en estos factores sobre las capacidades, límites y forma de trabajar de los usuarios.
Los estudios ergonómicos sobre las interfaces se han centrado casi exclusivamente en las habilidades perceptivas, cognitivas y motoras de los usuarios, más que en los factores afectivos, sociales o de actitud, aunque en los últimos años, el trabajo en estos campos ha adquirido mayor popularidad. (Para una visión integral de las personas como sistemas de procesamiento de la información, consultar Rasmussen 1986; para una revisión de los factores relacionados con el usuario que hay que considerar para el diseño de interfaces, consultar Thimbleby 1990 y Mayhew 1992). Los siguientes párrafos tratan sobre las cuatro características principales relacionadas con el usuario que deberían tenerse en cuenta durante el diseño de interfaces.


viernes, 13 de diciembre de 2013

Análisis de la tarea (II)

A nivel más básico, el análisis de la tarea está compuesto por la obtención de datos, su recopilación y análisis. Puede realizarse antes, durante o después de la informatización de la tarea. En todos los casos, proporciona directrices esenciales para el diseño y la evaluación de la interfaz. El análisis de la tarea siempre está relacionado con la tarea real, aunque también puede estudiar tareas futuras a través de su simulación o la prueba de prototipos. Cuando se realiza antes de la informatización, estudia las “tareas externas” (es decir, las tareas que se realizan sin el ordenador), que se llevan a cabo con las herramientas de trabajo existentes (Moran 1983). Es un tipo de análisis útil incluso si se espera que la informatización modifique la tarea de forma importante, ya que permite definir la naturaleza y lógica de la tarea, los procedimientos de trabajo, la terminología, los opera- dores y tareas, las herramientas de trabajo y fuentes de dificultades. Al hacer esto, se obtienen los datos necesarios para la optimización de la tarea y la informatización.
El análisis de la tarea realizado durante la informatización de la tarea se centra en “tareas internas”, es decir, las realizadas y representadas por el sistema informático. En esta etapa se utilizan prototipos del sistema para la obtención de datos. El proceso se ocupa de los mismos puntos examinados en la etapa anterior, pero desde el punto de vista del proceso de informatización.
Después de la informatización de la tarea, el análisis de la tarea también estudia las tareas internas, pero el análisis ahora se centra en el sistema informático final. Este tipo de análisis se realiza con frecuencia para evaluar las interfaces existentes o como parte del diseño de interfaces nuevas.
El análisis jerárquico de la tarea es un método utilizado frecuentemente en ergonomía cognitiva que ha resultado muy útil en diversos campos, incluido el diseño de interfaces (Shepherd 1989). Consiste en la división de las tareas (u objetivos principales) en subtareas, cada una de las cuales puede subdividirse hasta conseguir el nivel de detalle deseado. Si los datos se obtienen directamente de los usuarios (por ejemplo, a través de entrevistas, comentarios, etc.), la división jerárquica puede dar una imagen de la ordenación mental que los usuarios hacen de la tarea. Los resultados del análisis pueden represen- tarse mediante una tabla o un diagrama de árbol. Cada una de estos formatos tienen ventajas e inconvenientes.

jueves, 12 de diciembre de 2013

Análisis de la tarea (I)

El análisis ergonómico de la tarea es uno de los pilares del diseño de interfaces. Esencialmente se trata del proceso por el que se definen las responsabilidades y actividades de los usuarios, lo que,
a su vez, permite diseñar interfaces compatibles con las características de las tareas de los usuarios. Todas las tareas tienen dos facetas:
1. La tarea nominal, que corresponde a la definición formal de tarea hecha por la organización. Incluye los objetivos, los procedimientos, el control de calidad, las normas y las herramientas.
2. La tarea real, que corresponde a las decisiones de los usuarios y
a los comportamientos necesarios para la ejecución de la tarea nominal.
El corte entre la tarea nominal y la real es inevitable y deriva de la incapacidad de la tarea nominal de tener en cuenta las variaciones y las circunstancias imprevisibles del flujo de trabajo, así como de las diferencias en la representación mental que los usuarios hacen de su trabajo. El análisis de la tarea nominal no basta para entender completamente las actividades de los usuarios.
El análisis de la actividad examina elementos como los obje- tivos de trabajo, el tipo de operaciones realizadas, su organiza- ción temporal (secuencial, en paralelo) y frecuencia, los modos operativos en que se basa, las decisiones, las fuentes de dificultades, los errores y los modos de recuperación. También muestra este análisis las distintas operaciones realizadas para llevar a cabo la tarea (detección, búsqueda, lectura, comparación, evaluación, decisión, estimación, anticipación), las entidades manipuladas (por ejemplo, en el control de procesos, la tempera- tura, presión, velocidad de flujo, el volumen) y la relación entre los operadores y las entidades. El contexto en el que es ejecutada la tarea condiciona estas relaciones. Tales datos son indispensa- bles para definir y organizar las características futuras del sistema.

miércoles, 11 de diciembre de 2013

Una filosofía de diseño centrada en el usuario

Gould y Lewis (1983) han propuesto una filosofía de diseño centrada en el usuario de las pantallas de visualización. Los cuatro principios propuestos son:

1. Atención inmediata y continua a los usuarios. Se mantiene un contacto directo con los usuarios, con el fin de comprender mejor sus características y tareas.
2. Diseño integrado. Todos los aspectos de la usabilidad (por ejemplo, interfaz, manuales, sistemas de ayuda) se desarrollan en paralelo y se colocan bajo un control centralizado.
3. Evaluación inmediata y continua por parte de los usuarios. Los usuarios prueban las interfaces o prototipos en las primeras fases de diseño, en condiciones de trabajo simu- ladas. El rendimiento y las reacciones se miden cuantitativa y cualitativamente.
4. Diseño iterativo. El sistema es modificado dependiendo de los resultados de la evaluación, y vuelve a comenzar el ciclo de evaluación.
En Gould (1988) se explican con detalle estos principios. Muy relevantes cuando se publicaron, en 1985, siguen siéndolo casi quince años después, debido a la imposibilidad de predecir la efectividad de las interfaces sin las pruebas de los usuarios. Tales principios constituyen la base de los ciclos de desarrollo basados en el usuario, propuestos por varios autores en los últimos años (Gould 1988; Mantei y Teorey 1989; Mayhew 1992; Nielsen 1992; Robert y Fiset 1992).
En la última parte de este artículo analizaremos cinco etapas del ciclo de desarrollo que parecen determinar la efectividad de la interfaz final.

martes, 10 de diciembre de 2013

Análisis del usuario He aquí los documentos que recogen dichas directrices:

• Apple Human Interface Guidelines (1987)
• Open Look (Sun 1990)
• OSF/Motif Style Guide (1990)
• IBM Common User Access guide to user interface design (1991)
• IBM Advanced Interface Design Reference (1991)
• The Windows interface: An application design guide (Microsoft 1992)

Estas directrices tienen como objetivo simplificar el desarrollo de interfaces indicando un nivel mínimo de uniformidad y cohe- rencia entre las interfaces utilizadas en la misma plataforma informática. Son precisas, detalladas y bastante completas en varios aspectos y tienen la ventaja adicional de ser bien cono- cidas, accesibles y ampliamente utilizadas. Son las normas de diseño “de facto” que utilizan los que desarrollan los sistemas y son, por lo mismo, indispensables.
Además, las normas de la Organización Internacional de Normalización (ISO) son también valiosas fuentes de informa- ción sobre el diseño y la evaluación de las interfaces. Estas normas se refieren principalmente a la uniformidad entre las interfaces, independientemente de las plataformas y aplica- ciones. Se han elaborado en colaboración con las asociaciones nacionales de normalización, después de discutirlas amplia- mente con los investigadores, diseñadores y fabricantes. La norma ISO más importante sobre el diseño de interfaces es la ISO 9241, que describe los requisitos ergonómicos para las pantallas de visualización de datos y consta de 17 partes. Por ejemplo, las partes 14, 15, 16 y 17 se refieren a cuatro tipos de diálogo personan ordenador: los menús, los lenguajes de comandos, la manipulación directa y los formularios. Las normas ISO deberán tener prioridad sobre otros principios y directrices de diseño. Las siguientes secciones tratan sobre los principios que deben condicionar el diseño de las interfaces.

miércoles, 4 de diciembre de 2013

Enfermedades infecciosas y cambio del clima/ecosistema

Los modelos de circulación general que combinan la atmósfera y los océanos predicen que las latitudes altas del hemisferio norte experimentarán una mayor elevación de la temperatura superfi- cial según las actuales hipótesis del IPCC (IPCC 1992). Se espera que las temperaturas invernales mínimas resulten más afectadas, lo que permitirá que determinados virus y parásitos se extiendan a regiones en las que antes no podían vivir. Además de los efectos del clima sobre los vectores, la transformación de los ecosistemas podría tener importantes repercusiones para enfermedades en que la zona de distribución de los vectores y/o huéspedes de reservorio está determinada por dichos ecosistemas.
Es posible que enfermedades transmitidas por vectores se extiendan a regiones templadas de ambos hemisferios y se inten- sifiquen en las zonas endémicas. La temperatura determina la capacidad de infección del vector pues afecta a la replicación de los patógenos, a su maduración y al período en que posee capa- cidad de infectar (Longstreth y Wiseman 1989). El alto nivel de la temperatura y la humedad intensifican también el hábito de picar de varias especies de mosquito. El calor extremo, en cambio, puede abreviar el tiempo de supervivencia del insecto.
Las enfermedades infecciosas sobre las que es más probable que repercutan sutiles variaciones climáticas son aquellas en cuyo ciclo vital interviene una especie de sangre fría (inverte- brado) (Sharp 1994). Entre las enfermedades cuyos agentes infecciosos, vectores o huéspedes se ven afectados por el cambio climático figuran la malaria, la esquistosomiasis, la filariasis, la leishmaniasis, la oncocercosis (ceguera del río), la tripanosomiasis (enfermedad de Chagas y enfermedad del sueño africana), el dengue, la fiebre amarilla y la encefalitis arbovírica. En la Tabla 53.12 figuran las cifras actuales del número de personas con riesgo de contraer esas enfermedades (OMS 1990d).
A escala mundial, la malaria es la más extendida de las enfermedades transmitidas por vectores y causa de uno a dos millones de muertos cada año. Según Martens y cols. (1995), a mediados del siglo próximo esa cifra puede incrementarse con otro millón más de muertes anuales debido al cambio climático. El mosquito anófeles, que es el portador de la malaria, puede extenderse a la isoterma de invierno de 16 C, pues el parásito no se desarrolla por debajo de esa temperatura (Gilles y Warrell 1993). Las epidemias que se producen a altitudes superiores suelen coin- cidir con temperaturas por encima de la media (Loevinsohn 1994). También afecta a la malaria la despoblación forestal, pues en las zonas taladas se crean abundantes charcas de agua dulce en las que pueden desarrollarse las larvas del anófeles (véase en este capítulo “La extinción de especies, la pérdida de diversidad biológica y la salud humana”).
En los dos últimos decenios los intentos por controlar la malaria han dado escaso fruto. El tratamiento no ha mejorado, pues la resistencia a los medicamentos se ha convertido en un problema importante en el caso de la cepa más virulenta, Plas- modium falciparum, y las vacunas antimalaria tienen una eficacia limitada (Institute of Medicine 1991). Hasta ahora la gran capacidad de variación antigénica de los protozoos ha impedido la obtención de vacunas eficaces para la malaria y la enfermedad del sueño, lo que no nos permite albergar muchas esperanzas de encontrar nuevos agentes farmacéuticos de fácil obtención contra esas enfermedades. Las enfermedades en que intervienen huéspedes de reservorio intermedios (por ejemplo, ciervos y roedores en la enfermedad de Lyme) hacen básicamente inalcanzable la inmunidad humana con programas de vacunación, lo que representa otro obstáculo para la interven- ción médica preventiva.

A medida que el cambio climático vaya modificando el hábitat, con una reducción potencial de la diversidad biológica, los insectos vectores se verán obligados a buscar nuevos hués- pedes (véase “La extinción de especies, la pérdida de diversidad biológica y la salud humana”). En Honduras, por ejemplo, insectos que buscan sangre, como el escarabajo asesino, que transmite la incurable enfermedad de Chagas (o tripanosomiasis americana), se han visto obligados a buscar huéspedes humanos al ver reducida la diversidad biológica por causa de la despobla- ción forestal. De 10.601 hondureños estudiados en regiones endémicas, el 23,5 % son hoy seropositivos a esa enfermedad (Sharp 1994). Las enfermedades zoonóticas son con frecuencia fuente de infecciones humanas y generalmente afectan al hombre tras un cambio ambiental o una alteración en la acti- vidad humana (Institute of Medicine l992). Muchas enferme- dades “incipientes” de los humanos son en realidad antiguas zoonosis de especies huéspedes animales. Por ejemplo, el Hanta- virus, que se ha demostrado recientemente que causa la muerte de seres humanos en el suroeste de Estados Unidos, está estable- cido desde hace mucho tiempo en los roedores y se considera que el reciente brote está relacionado con las condiciones climá- ticas/ecológicas (Wenzel 1994).


martes, 3 de diciembre de 2013

Efectos del cambio en la temperatura y las precipitaciones sobre la salud

Morbilidad y mortalidad relacionadas con el calor Fisiológicamente, los humanos poseen una gran capacidad de termorregulación hasta determinado umbral de temperatura.

Unas condiciones climáticas que comprendan temperaturas superiores a dicho umbral mantenidas durante varios días consecutivos incrementan la mortalidad en la población. En las grandes ciudades, las deficiencias en la vivienda combinadas con el efecto urbano denominado “islote de calor” agravan aún más esas condiciones. En Shanghai, por ejemplo, ese efecto puede llegar a ser de hasta 6,5 C en una tarde de invierno sin viento
(IPCC 1990). Los fallecimientos relacionados con el calor se producen sobre todo en la población de edad avanzada y se atribuyen a trastornos cardiovasculares y respiratorios (Kilbourne 1989). Algunas variables meteorológicas clave contribuyen a la mortalidad relacionada con el calor, y la más impor- tante de ellas es una elevada temperatura durante la noche; se prevé que el efecto invernadero eleve especialmente estas tempe- raturas mínimas (Kalkstein y Smoyer 1993).
Se espera que las regiones templadas y polares se calienten de un modo desproporcionadamente mayor que las zonas tropicales y subtropicales (IPCC 1990). Sobre la base de las predicciones de la Administración Nacional de Aeronáutica y del Espacio de Estados Unidos (NASA), las temperaturas estivales medias en Nueva York y San Luis, por ejemplo, ascenderían en 3,1 y 3,9 C respectivamente si se duplicara el CO2 ambiental. Aun ajustando esas cifras para tener en cuenta la aclimatación fisiológica, la mortalidad estival anual en ciudades templadas como las citadas podría multiplicarse por más de cuatro (Kalks- tein y Smoyer 1993).
La química atmosférica es un factor importante de la formación de la bruma fotoquímica urbana, en virtud de la cual la fotodescomposición del NO2
nicos volátiles tiene como en presencia de compuestos orgátroposférico (a nivel del suelo). Tanto la mayor radiación UV ambiental como unas temperaturas más altas propiciarían aún más esas reacciones. Son bien conocidas las perjudiciales conse- cuencias para la salud de la contaminación del aire y, si se siguen utilizando combustibles fósiles, aumentarán los efectos agudos y crónicos sobre la salud (véase en este capítulo “La contamina- ción del aire”).



lunes, 2 de diciembre de 2013

Agotamiento del ozono estratosférico

El ozono estratosférico se está agotando debido básicamente a las reacciones con radicales libres de halógenos procedentes de clorofluorocarbonos (CFC), junto con otros halocarbonos y bromuro de metilo (Molina y Rowland 1974). El ozono bloquea la penetración de la radiación ultravioleta B (UVB), que contiene las longitudes de onda biológicamente más destructivas (290-320 nanómetros). Se prevé que los niveles de UVB se eleven de forma desproporcionada en las zonas templadas y árticas, pues se ha establecido una clara relación entre las latitudes más altas y el grado de adelgazamiento de la capa de ozono (Stolarski y cols. 1992).
Se estima que durante el período de 1979 a 1991 la pérdida media de ozono, ajustada por el ciclo solar y otros factores, fue de un 2,7 % por decenio (Gleason y cols. 1993). En 1993, inves- tigadores que utilizaban un nuevo y sensible espectrorradió- metro en Toronto, Canadá, descubrieron que el agotamiento del ozono ha provocado hasta ahora incrementos locales de la radia- ción UVB ambiental de un 35 % en el invierno y un 7 % en el verano en relación con los niveles de 1989 (Kerr y McElroy 1993). En estimaciones anteriores del Programa de las Naciones Unidas para el Medio Ambiente (PNUMA) se predijo un incre- mento del 1,4 % de la UVB por cada 1 % de reducción del ozono estratosférico (PNUMA 1991a).
Entre las repercusiones directas sobre la salud del agota- miento del ozono estratosférico, que produce un incremento de la radiación UVB ambiental, figuran: a) cáncer de piel, b) enfer- medades oculares, y c) inmunosupresión. La radiación ultravio- leta puede producir también efectos indirectos sobre la salud al ocasionar daños a los cultivos.

domingo, 1 de diciembre de 2013

EL CAMBIO CLIMATICO MUNDIAL Y • EL AGOTAMIENTO DEL OZONO

Los principales gases de efecto invernadero son el dióxido de carbono, el metano, el óxido nitroso, el vapor de agua y los cloro- fluorocarbonos (CFC). Estos gases dejan que la luz solar penetre hasta la superficie de la tierra, pero impiden que escape el calor radiante infrarrojo. El Grupo Intergubernamental de Expertos sobre Cambios Climáticos (IPCC) de las Naciones Unidas ha llegado a la conclusión de que las emisiones, básicamente proce- dentes de la industria, y la destrucción de “sumideros” de gases de efecto invernadero por una deficiente ordenación del uso de la tierra, especialmente por la despoblación forestal, han incrementado la concentración de gases muy por encima de los procesos naturales. De no producirse importantes cambios de política, se espera que los niveles de dióxido de carbono preindustrial aumenten hasta generar un incremento de 1,0-3,5 C de la temperatura media mundial en el año 2100 (IPCC en prensa).
Los dos componentes básicos del cambio climático son: a) la elevación de la temperatura, con la inestabilidad y los extremos climáticos de ella derivados, y b) la elevación del nivel del mar por termoexpansión. Estos cambios pueden incrementar la frecuencia de las olas de calor y los episodios peligrosos de contaminación del aire, reducción de la humedad del suelo, mayor incidencia de fenómenos climáticos perturbadores e inun- dación de las costas (IPCC 1992). Entre los efectos para la salud pueden citarse un incremento de: a) la mortalidad y morbilidad relacionadas con el calor; b) las enfermedades infecciosas, en particular las transmitidas por insectos; c) la malnutrición por escasez de alimentos, y d) las crisis de las infraestructuras de salud pública a causa de los desastres climáticos y la elevación del nivel del mar, junto con las migraciones humanas relacionadas con el clima (véase la Figura 53.12).
Los humanos tienen una enorme capacidad para adaptarse
a las condiciones climáticas y ambientales. No obstante, la tasa de cambio climático y potencialmente ecológico que se predice es motivo de gran preocupación tanto para los expertos en medicina como en ciencias de la Tierra. Muchos de los efectos sobre la salud se derivarán de las respuestas ecológicas a unas condiciones climáticas alteradas. Por ejemplo, la extensión de las enfermedades transmitidas por vectores dependerá de cambios en la vegetación y de la disponibilidad de reservorios o huéspedes intermedios, junto con los efectos directos de la tempera- tura y la humedad sobre los parásitos y sus vectores (Patz y cols. 1996). Por consiguiente, para entender los peligros del cambio climático es necesario evaluar de un modo integrado el riesgo ecológico, para lo que se necesitan nuevos enfoques, más complejos que los análisis tradicionales del riesgo, basados en datos empíricos y en la relación causal entre un agente único y un efecto (McMichael 1993).

sábado, 30 de noviembre de 2013

El tejido urbano

Además de las cuestiones concretas ya señaladas (vivienda, servicios, tráfico), también el crecimiento global del tejido urbano tiene repercusiones sobre la salud. En primer lugar, las zonas urbanas suelen registrar una gran densidad de población, lo que facilita la difusión de enfermedades transmisibles. En segundo lugar, en esas zonas se concentran gran número de industrias, y la contaminación consiguiente. En tercer lugar, a través del proceso de crecimiento urbano, focos naturales de vectores de enfermedades pueden quedar atrapados en las nuevas áreas urbanas, y pueden crearse nuevos nichos para vectores de enfermedades. Los vectores pueden adaptarse a los nuevos hábitats (urbanos), por ejemplo, los responsables de la malaria urbana, el dengue y la fiebre amarilla. En cuarto lugar, la urbanización ha tenido muchas veces consecuencias psicosociales como el estrés, la alienación, la inestabilidad y la inseguridad, que a su vez han provocado problemas como la depresión y el uso indebido del alcohol y las drogas (Harpham, Lusty y Vaugham 1988; OMS, Comisión de Salud y Medio Ambiente 1992a).
Las experiencias del pasado han demostrado la posibilidad (y la necesidad) de abordar los problemas de salud con mejoras en la urbanización. Por ejemplo, “el notable descenso de las tasas de mortalidad y las mejoras en materia de salud que se consi- guieron en Europa y Norteamérica a comienzos del presente siglo no debieron tanto a los establecimientos médicos como a la mejora de la nutrición y del abastecimiento de agua, del sanea- miento y de otros aspectos de las condiciones de vivienda y de vida” (Hardoy, Cairncross y Satterthwaite 1990).
La solución a los crecientes problemas planteados por la urbanización pasa por una sólida integración entre urbanismo y gestión de las ciudades (aspectos que suelen estar separados), así como por la participación de los distintos agentes públicos, privados y voluntarios que operan en el escenario urbano. La urbanización afecta a una gran variedad de trabajadores. A diferencia de otras fuentes o tipos de problemas de salud (que podrían afectar a categorías específicas de trabajadores), los riesgos profesionales derivados de la urbanización no pueden abordarse únicamente mediante la acción o presión sindical. Exigen una acción interprofesional o, de un modo aún más amplio, una acción de la comunidad urbana en general.

viernes, 29 de noviembre de 2013

Tráfico

Las ciudades y los pueblos dependen en gran medida del transporte de superficie para el traslado de personas y mercancías. Así, el incremento de la urbanización en todo el mundo se ha visto acompañado de un enorme crecimiento del tráfico urbano. Y esta situación ha generado gran número de de 500.000 personas mueren en accidentes de tráfico cada año, y dos tercios de esa cifra se producen en zonas urbanas o periur- banas. Además, según numerosos estudios realizados en diferentes países, por cada persona fallecida se producen de 10 a 20 heridos. En muchos casos las víctimas padecen una pérdida permanente o prolongada de productividad (Urban Edge 1990a; OMS, Comisión de Salud y Medio Ambiente 1992a). Gran parte de esos datos se refiere a personas que iban o venían del trabajo —y ese tipo de accidentes de tráfico se consideran desde hace poco un riesgo profesional.
Según estudios del Banco Mundial, las principales causas de los accidentes de tráfico urbano son el mal estado de los vehí- culos, el mal estado de las vías, la confluencia de distintos tipos de tráfico —desde peatones y animales a camiones— en las mismas calles o vías, la inexistencia de aceras y el nerviosismo en el comportamiento viario (tanto entre conductores como entre peatones) (Urban Edge 1990a, 1990b).
Otro peligro derivado de la expansión del tráfico urbano es la contaminación del aire y la contaminación por ruido. Entre los problemas para la salud figuran las enfermedades respiratorias agudas y crónicas, los tumores malignos y las deficiencias de audición (la contaminación se aborda también en otros artículos de la presente Enciclopedia).
Existen muchas soluciones técnicas para mejorar la seguridad viaria y de los vehículos (así como la contaminación). Pero, al parecer, el reto más importante es modificar las actitudes de conductores, peatones y funcionarios públicos. Se ha recomen- dado muchas veces la educación vial —desde la escuela elemental hasta campañas en los medios de comunicación— como política dirigida a los conductores y/o peatones (y esos programas, cuando se han aplicado, han alcanzado por lo general cierto grado de éxito). Los funcionarios públicos son responsables de elaborar la legislación de tráfico y obligar a su cumplimiento, inspeccionar los vehículos y concebir y aplicar medidas técnicas de seguridad. Sin embargo, según los estudios antes mencionados, los funcionarios rara vez consideran los acci- dentes de tráfico (o la contaminación) un problema de la máxima prioridad, o rara vez cuentan con los medios necesarios para actuar en consecuencia (Urban Edge 1990a, 1990b). Por consiguiente, han de ser objeto de campañas educativas y se les ha de apoyar en su labor.

jueves, 28 de noviembre de 2013

Análisis del usuario

El otro pilar del diseño de interfaces es el análisis de las características del usuario. Las características relevantes pueden estar relacionadas con la edad, sexo, idioma, nivel cultural, formación, conocimientos técnicos o de informática, cualificación o motivación del usuario. Las variaciones en estos factores individuales son las responsables de las diferencias en y entre grupos de usuarios. Uno de los principios básicos del diseño de interfaces es, por lo tanto, que no existe un usuario medio. Es necesario, por lo tanto, identificar distintos grupos de usuarios y sus características. Se debe impulsar a los representantes de cada grupo a que participen en el en los procesos de diseño y evaluación de las interfaces.
Por otra parte, se pueden utilizar técnicas psicológicas, ergonómicas y de ingeniería cognitiva para obtener información sobre las características de los usuarios relativas a la percepción, memoria, representación cognitiva, toma de decisiones y aprendizaje (Wickens 1992). Es evidente que la única manera de desarrollar interfaces que sean realmente compatibles con los usuarios es tener en cuenta el efecto de las diferencias en estos factores sobre las capacidades, límites y forma de trabajar de los usuarios.
Los estudios ergonómicos sobre las interfaces se han centrado casi exclusivamente en las habilidades perceptivas, cognitivas y motoras de los usuarios, más que en los factores afectivos, sociales o de actitud, aunque en los últimos años, el trabajo en estos campos ha adquirido mayor popularidad. (Para una visión integral de las personas como sistemas de procesamiento de la información, consultar Rasmussen 1986; para una revisión de los factores relacionados con el usuario que hay que considerar para el diseño de interfaces, consultar Thimbleby 1990 y Mayhew 1992). Los siguientes párrafos tratan sobre las cuatro características principales relacionadas con el usuario que deberían tenerse en cuenta durante el diseño de interfaces.

miércoles, 27 de noviembre de 2013

Análisis de la tarea

El análisis ergonómico de la tarea es uno de los pilares del diseño de interfaces. Esencialmente se trata del proceso por el que se definen las responsabilidades y actividades de los usuarios, lo que, a su vez, permite diseñar interfaces compatibles con las características de las tareas de los usuarios. Todas las tareas tienen dos facetas:
1. La tarea nominal, que corresponde a la definición formal de tarea hecha por la organización. Incluye los objetivos, los procedimientos, el control de calidad, las normas y las herramientas.
2. La tarea real, que corresponde a las decisiones de los usuarios y a los comportamientos necesarios para la ejecución de la tarea nominal.
El corte entre la tarea nominal y la real es inevitable y deriva de la incapacidad de la tarea nominal de tener en cuenta las variaciones y las circunstancias imprevisibles del flujo de trabajo, así como de las diferencias en la representación mental que los usuarios hacen de su trabajo. El análisis de la tarea nominal no basta para entender completamente las actividades de los usuarios.
El análisis de la actividad examina elementos como los obje- tivos de trabajo, el tipo de operaciones realizadas, su organización temporal (secuencial, en paralelo) y frecuencia, los modos operativos en que se basa, las decisiones, las fuentes de dificultades, los errores y los modos de recuperación. También muestra este análisis las distintas operaciones realizadas para llevar a cabo la tarea (detección, búsqueda, lectura, comparación, evaluación, decisión, estimación, anticipación), las entidades manipuladas (por ejemplo, en el control de procesos, la tempera- tura, presión, velocidad de flujo, el volumen) y la relación entre los operadores y las entidades. El contexto en el que es ejecutada la tarea condiciona estas relaciones. Tales datos son indispensa- bles para definir y organizar las características futuras del sistema.
A nivel más básico, el análisis de la tarea está compuesto por la obtención de datos, su recopilación y análisis. Puede realizarse antes, durante o después de la informatización de la tarea. En todos los casos, proporciona directrices esenciales para el diseño y la evaluación de la interfaz. El análisis de la tarea siempre está relacionado con la tarea real, aunque también puede estudiar tareas futuras a través de su simulación o la prueba de proto- tipos. Cuando se realiza antes de la informatización, estudia las “tareas externas” (es decir, las tareas que se realizan sin el ordenador), que se llevan a cabo con las herramientas de trabajo existentes (Moran 1983). Es un tipo de análisis útil incluso si se espera que la informatización modifique la tarea de forma importante, ya que permite definir la naturaleza y lógica de la tarea, los procedimientos de trabajo, la terminología, los opera- dores y tareas, las herramientas de trabajo y fuentes de dificultades. Al hacer esto, se obtienen los datos necesarios para la optimización de la tarea y la informatización.
El análisis de la tarea realizado durante la informatización de la tarea se centra en “tareas internas”, es decir, las realizadas y representadas por el sistema informático. En esta etapa se utilizan prototipos del sistema para la obtención de datos. El proceso se ocupa de los mismos puntos examinados en la etapa anterior, pero desde el punto de vista del proceso de informatización.
Después de la informatización de la tarea, el análisis de la tarea también estudia las tareas internas, pero el análisis ahora se centra en el sistema informático final. Este tipo de análisis se realiza con frecuencia para evaluar las interfaces existentes o como parte del diseño de interfaces nuevas.
El análisis jerárquico de la tarea es un método utilizado frecuentemente en ergonomía cognitiva que ha resultado muy útil en diversos campos, incluido el diseño de interfaces (Shepherd 1989). Consiste en la división de las tareas (u objetivos principales) en subtareas, cada una de las cuales puede subdividirse hasta conseguir el nivel de detalle deseado. Si los datos se obtienen directamente de los usuarios (por ejemplo, a través de entrevistas, comentarios, etc.), la división jerárquica puede dar una imagen de la ordenación mental que los usuarios hacen de la tarea. Los resultados del análisis pueden represen- tarse mediante una tabla o un diagrama de árbol. Cada una de estos formatos tienen ventajas e inconvenientes.


martes, 26 de noviembre de 2013

Una filosofía de diseño centrada en el usuario

Gould y Lewis (1983) han propuesto una filosofía de diseño centrada en el usuario de las pantallas de visualización. Los cuatro principios propuestos son:

1. Atención inmediata y continua a los usuarios. Se mantiene un contacto directo con los usuarios, con el fin de comprender mejor sus características y tareas.
2. Diseño integrado. Todos los aspectos de la usabilidad (por ejemplo, interfaz, manuales, sistemas de ayuda) se desarrollan en paralelo y se colocan bajo un control centralizado.
3. Evaluación inmediata y continua por parte de los usuarios. Los usuarios prueban las interfaces o prototipos en las primeras fases de diseño, en condiciones de trabajo simuladas. El rendimiento y las reacciones se miden cuantitativa y cualitativamente.
4. Diseño iterativo. El sistema es modificado dependiendo de los resultados de la evaluación, y vuelve a comenzar el ciclo de evaluación.
En Gould (1988) se explican con detalle estos principios. Muy relevantes cuando se publicaron, en 1985, siguen siéndolo casi quince años después, debido a la imposibilidad de predecir la efectividad de las interfaces sin las pruebas de los usuarios. Tales principios constituyen la base de los ciclos de desarrollo basados en el usuario, propuestos por varios autores en los últimos años (Gould 1988; Mantei y Teorey 1989; Mayhew 1992; Nielsen 1992; Robert y Fiset 1992).
En la última parte de este artículo analizaremos cinco etapas del ciclo de desarrollo que parecen determinar la efectividad de la interfaz final.

lunes, 25 de noviembre de 2013

Para los usuarios:

• fase de aprendizaje más corta
• mayores posibilidades de aplicación general de las habilidades
• mejor uso del sistema
• mayor autonomía en el uso del sistema
• reducción del tiempo necesario para realizar una tarea
• menor número de errores
• mayor satisfacción.
Las interfaces eficaces pueden mejorar significativamente la salud y la productividad de los usuarios al tiempo que mejoran la calidad y reducen los costes de su formación. Para ello es necesario basar el diseño y la evaluación de las interfaces en principios ergonómicos y en normas prácticas, ya sean directrices, normas de empresa de los principales fabricantes de sistemas o normas internacionales. En el curso de los años, se ha acumulado una gran cantidad de principios ergonómicos y directrices relativas al diseño de interfaces (Scapin 1986; Smith y Mosier 1986; Marshall, Nelson y Gardiner 1987; Brown 1988). Este bloque multidisciplinario abarca todos los aspectos de las interfaces modalidad carácter y gráficas, así como los criterios de evaluación de las interfaces. A pesar de que su aplicación concreta ocasionalmente supone algún problema (por ejemplo, terminología imprecisa, información inadecuada sobre las condiciones de uso, presentación inadecuada, etc.), sigue siendo un recurso valioso para el diseño y la evaluación de las interfaces.
Además, los principales fabricantes de software han desarro- llado sus propias directrices y normas internas para el diseño de interfaces. He aquí los documentos que recogen dichas directrices:
• Apple Human Interface Guidelines (1987)
• Open Look (Sun 1990)
• OSF/Motif Style Guide (1990)
• IBM Common User Access guide to user interface design (1991)
• IBM Advanced Interface Design Reference (1991)
• The Windows interface: An application design guide (Microsoft 1992)

Estas directrices tienen como objetivo simplificar el desarrollo de interfaces indicando un nivel mínimo de uniformidad y cohe- rencia entre las interfaces utilizadas en la misma plataforma informática. Son precisas, detalladas y bastante completas en varios aspectos y tienen la ventaja adicional de ser bien cono- cidas, accesibles y ampliamente utilizadas. Son las normas de diseño “de facto” que utilizan los que desarrollan los sistemas y son, por lo mismo, indispensables.
Además, las normas de la Organización Internacional de Normalización (ISO) son también valiosas fuentes de informa- ción sobre el diseño y la evaluación de las interfaces. Estas normas se refieren principalmente a la uniformidad entre las interfaces, independientemente de las plataformas y aplica- ciones. Se han elaborado en colaboración con las asociaciones nacionales de normalización, después de discutirlas amplia- mente con los investigadores, diseñadores y fabricantes. La norma ISO más importante sobre el diseño de interfaces es la ISO 9241, que describe los requisitos ergonómicos para las pantallas de visualización de datos y consta de 17 partes. Por ejemplo, las partes 14, 15, 16 y 17 se refieren a cuatro tipos de diálogo persona-ordenador: los menús, los lenguajes de comandos, la manipulación directa y los formularios. Las

normas ISO deberán tener prioridad sobre otros principios y directrices de diseño. Las siguientes secciones tratan sobre los principios que deben condicionar el diseño de las interfaces.

domingo, 24 de noviembre de 2013

Para los productores de software

• mejor imagen del producto
• mayor demanda de productos
• menor tiempo de formación
• menor necesidad de servicio posventa
• una base sólida para desarrollar una línea de productos
• reducción del riesgo de errores y accidentes
• reducción de la documentación.

sábado, 23 de noviembre de 2013

Elementos del diseño de la interfaz

Desde la invención de los sistemas operativos de tiempo compartido en 1963 y especialmente desde la introducción de los micro- ordenadores en 1978, el desarrollo de las interfaces persona-ordenador ha sido vertiginoso (véase historia en Gaines y Shaw 1986). El estímulo para este desarrollo se encuentra principalmente en tres factores simultáneos:
En primer lugar, la rápida evolución de la tecnología informática como resultado de los avances de la ingeniería eléctrica, de las ciencias, físicas e informáticas, ha sido uno de los determinantes principales del desarrollo de la interfaz de usuario. A ello se debe la aparición de ordenadores cada vez más potentes y rápidos, con gran capacidad de memoria, pantallas gráficas de alta resolución, y dispositivos señaladores más naturales que permiten la manipulación directa (ratones, “trackballs”). Estas tecnologías también fueron las responsables de la aparición de los microordenadores y que constituyeron la base para las interfaces basadas en caracteres de los decenios de 1960 y1970, para las interfaces gráficas de finales del decenio de 1970 y las inter- faces multimedia e hipermedia aparecidas a mediados del decenio de 1980, basadas en entornos virtuales o en el uso de tecnologías de reconocimiento de entrada alternativa (por ejemplo, detección de voz, de escritura y del movimiento). En los últimos años, se ha realizado una investigación y un desarrollo considerables en estas áreas (Waterworth y Chignel 1989; Rheingold 1991). Acompañando a estos avances, se han desarrollado herramientas de software cada vez más avanzadas para el diseño de interfaces (por ejemplo, los sistemas de división en ventanas, las bibliotecas de objetos gráficos o los sistemas de desarrollo de prototipos) que reducen de forma importante el tiempo necesario para desarrollar las interfaces.
En segundo lugar, los usuarios de los sistemas informáticos han tenido un papel muy importante en el desarrollo de interfaces eficaces por tres motivos: el primero, porque los usuarios actuales no son ingenieros ni investigadores, a diferencia de los usuarios de los primeros ordenadores. Es por esto que piden sistemas que sean fáciles de aprender y de utilizar. El segundo motivo, la edad, el sexo, el idioma, el nivel cultural, la formación, la experiencia, las habilidades, la motivación y el interés de los usuarios individuales es muy variable. Por esto, las interfaces deben ser más flexibles y capaces de adaptarse mejor a una amplia gama de necesidades y expectativas; y tercero, los usua- rios trabajan en sectores económicos diversos y realizan una variedad de tareas muy amplia. Por ello, los desarrolladores de interfaces deben reevaluar constantemente la calidad de sus interfaces.
En último lugar, la gran competitividad del mercado y las expectativas cada vez mayores en cuanto a la seguridad favorecen el desarrollo de mejores interfaces. Dos grupos de aliados son responsables de estos aspectos: por una parte, los productores de software, que luchan por reducir los costes sin perder las características distintivas de sus productos, que les permiten alcanzar sus objetivos comerciales y, por otra, los usuarios para quienes el software es un medio para ofrecer productos y servi- cios más competitivos a sus clientes. Para ambos grupos, una interfaz eficaz ofrece una serie de ventajas:

viernes, 22 de noviembre de 2013

ASPECTOS ERGONOMICOS DE LA INTERACCION ORDENADOR/HOMBRE

Introducción
El desarrollo de interfaces eficaces para los sistemas informáticos es el objetivo fundamental de las investigaciones sobre las interac- ciones ordenador/hombre.
Una interfaz puede definirse como la suma de los componentes del hardware y del software a través de los cuales se acciona el sistema y se informa a los usuarios de su estado. Los componentes del hardware incluyen los dispositivos de entrada de datos y los dispositivos señaladores (por ejemplo, el teclado o el ratón), los dispositivos de presentación de la información (como pantallas y altavoces), y los manuales del usuario y la documentación. Los componentes del software incluyen los comandos de menú, los iconos, las ventanas, la retroinformación, los sistemas de navegación y los mensajes, etc. Los componentes de hardware y de software de la interfaz pueden estar tan relacionados entre sí que pueden considerarse inseparables (por ejemplo, las teclas de función del teclado). La interfaz incluye todo lo que el usuario percibe, entiende y manipula cuando interactúa con el ordenador (Moran 1981). Es, por lo tanto, un determinante crucial de la relación persona-máquina. La investigación sobre las interfaces tiene como objetivo mejorar la utilidad, accesibilidad, rendimiento, seguridad y usabilidad. Por este motivo, la utilidad se define en relación a la tarea que se desea realizar. Un sistema útil contiene las funciones necesarias para que el usuario realice las tareas que se le han encomendado (escritura, diseño, cálculo o programación). La accesibilidad es una medida de la capacidad de una interfaz para permitir que varias categorías de usuarios, (en especial, los individuos discapacitados y los que trabajan en áreas geográficamente aisladas, que se desplazan continuamente o que tienen las dos manos ocupadas), utilicen el sistema para realizar sus activi- dades. El rendimiento, considerado aquí desde un punto de vista humano más que técnico, es una medida del grado en el que un sistema mejora la eficiencia con la que los usuarios realizan su trabajo. Con ello nos referimos a las macros, las teclas de acceso rápido a los menús y los asistentes de software. La seguridad de un sistema se define por el grado en que una interfaz permite a los usuarios realizar su trabajo sin riesgo de accidentes o pérdidas de personas, de equipos, de datos o medio ambientales. Por último, la usabilidad se define como la facilidad con que puede aprenderse el uso de un sistema y utilizarse. Por exten- sión, este término incluye también a la utilidad y al rendimiento del sistema, antes definidos.

jueves, 21 de noviembre de 2013

La búsqueda del equilibrio

Debido a que no existen trabajos ni lugares de trabajo “perfectos”, libres de todos los estresores psicosociales y ergonó- micos, con frecuencia es preciso llegar a un compromiso cuando se intenta mejorar el lugar de trabajo. Los procesos de rediseño implican generalmente un “compromiso” entre unas condiciones excelentes de trabajo y la necesidad de tener una productividad aceptable. Ello requiere tiempo para pensar cómo conseguir el mejor “equilibrio” entre los beneficios positivos para la salud de los empleados y la productividad. Lamentablemente, puesto que existen tantos factores que pueden producir condiciones psicoso- ciales adversas generadoras de estrés, y puesto que estos factores están interrelacionados, las modificaciones de uno de los factores no necesariamente producen beneficios si no se realizan cambios concomitantes en los demás factores relacionados. En general, deberían considerarse dos aspectos del equilibrio: el equilibrio del sistema en su totalidad y el equilibrio compensatorio.
El equilibrio del sistema se basa en la idea de que el lugar de trabajo, los procesos o el trabajo es más que la suma de los componentes individuales del sistema. La interacción entre los diversos componentes produce resultados que son mayores (o menores) a la suma de las partes individuales y determina el potencial del sistema para producir resultados positivos. Por ello, las mejoras en el trabajo deben tenerlo en cuenta y adaptar el sistema de trabajo en su conjunto. Si una organización se centra exclusivamente en el componente tecnológico del sistema, se producirá un desequilibrio, ya que se habrán descuidado factores personales y psicosociales. El modelo del sistema de trabajo que se muestra en la Figura 52.9 puede utilizarse para identificar y entender las relaciones entre las exigencias del trabajo, los factores de diseño y el estrés, que deben estar equilibradas.
Debido a que pocas veces es posible eliminar todos los factores psicosociales que producen estrés, ya sea por motivos económicos o porque es imposible modificar aspectos inherentes a las tareas del trabajo, se utilizan técnicas de equilibrio compensatorio. El equilibrio compensatorio intenta reducir el estrés psicológico modificando aspectos del trabajo que pueden ser alterados en una dirección positiva para compensar otros aspectos que no pueden ser modificados. Existen cinco elementos del sistema de trabajo: la carga física, los ciclos de trabajo, el contenido del trabajo, el control y las relaciones entre los trabajadores, que actúan en conjunto para proporcionar los recursos necesarios para alcanzar los objetivos individuales y de la organización a través del equilibrio compensatorio. Aunque hemos descrito algunos de los atributos potencialmente nega- tivos de estos elementos en términos de estrés laboral, cada uno de ellos tiene también aspectos positivos que pueden neutra- lizar las influencias negativas. Por ejemplo, la falta de prepara- ción para utilizar la nueva tecnología puede compensarse mediante la formación de los empleados. El bajo contenido del trabajo, que genera repetitividad y monotonía puede ser equili- brado con una estructura jerárquica que promueva la participa- ción del empleado y el control sobre las tareas, y con la ampliación del trabajo que introduzca mayor diversidad de tareas. Las condiciones sociales del trabajo con PVD podrían mejorarse equilibrando las cargas que pueden producir estrés y considerando todos los elementos del trabajo y su potencial para causar o reducir estrés. La propia estructura de la organización podría ser adaptada para proporcionar trabajos enriquecidos que proporcionen apoyo al individuo. El aumento de los niveles de la plantilla, incrementando los niveles de responsabilidad compartida o los recursos financieros destinados al bienestar de los trabajadores son otras posibles soluciones.

miércoles, 20 de noviembre de 2013

Infraestructuras urbanas: prestación de servicios de salud ambiental

Otros problemas de salud pueden deberse a la falta de una atención adecuada a la vivienda, con servicios de salud ambiental como recogida de basuras, abastecimiento de agua, saneamiento y desagüe. Ahora bien, una prestación insuficiente de estos servicios tiene repercusiones más allá del ámbito de la vivienda y puede provocar peligros para la ciudad o el pueblo en su conjunto. Los niveles de prestación de esos servicios siguen siendo críticos en muchos lugares. Por ejemplo, del 30 % al 50 % de los residuos sólidos generados en los centros urbanos quedan sin recoger. En 1985 había 100 millones de personas más sin sumi- nistro de agua que en 1975. Todavía más de 2.000 millones de personas carecen de sistemas de saneamiento para eliminar los residuos humanos (Hardoy, Cairncross y Sattewrthwaite 1990; OMS, Comisión de Salud y Medio Ambiente 1992b). Y en los medios de comunicación suelen aparecer casos de inundaciones y otros accidentes que están relacionados con la insuficiencia de los desagües urbanos.
En la Tabla 53.11 figuran los peligros derivados de una pres- tación deficiente de servicios de salud ambiental. También son habituales los peligros que afectan a determinados tipos de servi- cios, por ejemplo, contaminación del abastecimiento de agua por la falta de saneamiento o la diseminación de los residuos a través del agua no desaguada. Para dar un sólo ejemplo entre muchos de la gravedad de estos problemas de infraestructura podemos decir que cada 20 segundos muere en el mundo un niño de diarrea, que es una de las principales consecuencias de la deficiencia de servicios de salud ambiental.

Los trabajadores en cuyo entorno de trabajo inmediato o general no existen suficientes servicios de este tipo están expuestos a muchos riesgos para su salud. Aún más expuestos se encuentran quienes trabajan en la prestación o mantenimiento de esos servicios, como basureros, barrenderos y traperos.
Hay sin duda soluciones técnicas que pueden mejorar la prestación de los servicios de salud ambiental, entre las que se incluyen los métodos de reciclado de basuras (incluido el apoyo a los traperos), el empleo de diferentes tipos de vehículos de recogida de basuras para acceder a los distintos tipos de vías urbanas (incluidos los asentamientos no estructurados), mecanismos para ahorrar agua, un mayor control de las pérdidas de agua y métodos de saneamiento de bajo coste como las letrinas de pozo ventilado, las fosas sépticas o las alcantarillas de escasa perforación.
No obstante, el éxito de cada solución dependerá de su adecuación a las circunstancias locales y de los recursos y capacidades locales para aplicarla. La voluntad política es funda- mental, pero no suficiente. En muchas ocasiones, los gobiernos han tenido dificultades para prestar servicios urbanos exclusiva- mente por sí mismos. En las experiencias satisfactorias suele producirse una cooperación entre el sector público, el sector privado y/o el sector voluntario. Es importante la plena intervención y apoyo de las comunidades locales. Ello suele obligar al reconocimiento oficial de gran número de asentamientos ilegales y semilegales (especialmente en los países en desarrollo, pero no sólo en ellos), que soportan una parte importante de los problemas de salud ambiental. Los trabajadores que intervienen directamente en servicios como la recogida o reciclado de basuras y el mantenimiento de la red de alcantarillado necesitan un equipo de protección especial, como guantes, monos y máscaras.


Mejora de las características psicosociales del trabajo con PVD (II)

El principal medio para aumentar el contenido del trabajo es incrementar el nivel de cualificación necesario para desarrollar las tareas, lo que significa generalmente ampliar el alcance de las tareas, así como enriquecer los elementos de cada tarea concreta (Herzberg 1974). Al ampliar el número de tareas se aumenta el repertorio de cualificaciones necesarias para realizar la tarea con éxito, así como la cantidad de decisiones que el empleado debe tomar para definir la secuencia de las tareas y actividades. El aumento en el nivel de especialización del contenido del trabajo favorece la imagen que el empleado se crea de su valía personal y de su importancia para la organización. Asimismo, favorece la imagen positiva del individuo en su grupo social de trabajo dentro de la organización.
Aumentar la complejidad de las tareas, es decir, la cantidad de trabajo intelectual y la toma de decisiones que conlleva, es el siguiente paso lógico que se puede conseguir asociando tareas simples en grupos de actividades relacionadas que hay que coordinar, o añadiendo tareas mentales que requieran un conocimiento adicional y especialización informática. Especialmente durante la introducción de la tecnología informática, los requi- sitos de las nuevas tareas generalmente superan los conocimientos y cualificación actuales de los empleados que deben desempeñarlas. Por ello es necesario formar a los empleados en los nuevos aspectos de las tareas a fin de que adquieran la cualificación necesaria para llevarlas a cabo de forma adecuada. Tal formación no sólo mejorará los conocimientos y cualificación del empleado (con el correspondiente aumento de su rendimiento), sino que éste ganará también en autoestima y confianza en sí mismo. Al proporcionarle formación también se le indicará que la empresa desea invertir en el desarrollo de su preparación y, por lo tanto, le aportará confianza sobre la estabilidad y futuro de su empleo.
El control que el empleado puede tener sobre su trabajo tiene una influencia psicosocial muy importante (Karasek y cols. 1981; Sauter, Cooper y Hurrell 1989). Es posible definir aspectos importantes del control respondiendo a las preguntas “quién, cómo y cuándo”. La naturaleza de las tareas que deben llevarse a cabo, la necesidad de coordinación entre los empleados, los métodos que hay que utilizar para realizar las tareas y la programación de éstas pueden definirse respondiendo a estas preguntas. El control del trabajo puede diseñarse a nivel de las tareas, de la unidad de trabajo y de la organización (Sain- fort 1991; Gardell 1971). A nivel de la tarea, el empleado puede tener suficiente autonomía en cuanto a los métodos y procedi- mientos utilizados para realizarla. A nivel de la unidad de trabajo, los grupos de empleados pueden gestionar por sí mismos varias tareas interrelacionadas y el propio grupo puede decidir quién realizará determinadas tareas, el orden de las mismas, su coordinación y las normas de producción necesarias para cumplir con los objetivos de la organización. A nivel de la organización, los empleados pueden participar en actividades estructuradas que aportan información a los directivos sobre la opinión de los empleados o las sugerencias para mejorar la calidad. Cuando los niveles de control disponibles son limitados, es preferible introducir la autonomía a nivel de la tarea y crear después la estructura organizacional, tanto como sea posible (Gardell 1971).
Una de las consecuencias naturales de la automatización informática parece ser el aumento de la carga de trabajo, ya que el objetivo de la automatización es aumentar la cantidad y la calidad del trabajo producido. Muchas organizaciones consideran que tal aumento es necesario para costear la inversión en automatización. Ahora bien, no es fácil establecer la carga de trabajo adecuada. Los ingenieros industriales han desarrollado métodos científicos para determinar los sistemas y cargas de trabajo adecuados (los requisitos de realización de un trabajo). Tales métodos se han utilizado con éxito en las industrias manu- factureras durante décadas, pero han tenido poca aplicación al trabajo de oficina, ni siquiera después de la informatización que han experimentado. El uso de métodos científicos, como los descritos por Kanawaty (1979) y Salvendy (1992), para esta- blecer la carga de trabajo de los operadores de PVD debería ser una de las primeras prioridades en todas las organizaciones, ya que estos métodos establecen normas o requisitos de producción adecuados, contribuyen a proteger a los empleados de una carga de trabajo excesiva y ayudan a garantizar la calidad de los productos.
Las exigencias asociadas con niveles altos de concentración requeridos por las tareas informatizadas pueden reducir la cantidad de interacción social durante el trabajo, produciendo el aislamiento social de los empleados. Para compensar este efecto, deberían brindarse oportunidades de relacionarse a los empleados no ocupados en tareas informatizadas y a los que están en las pausas de descanso. Las tareas no informatizadas, que no requieran una concentración excesiva, podrían organizarse de forma que los empleados puedan trabajar próximos entre sí y tener así la oportunidad de hablar entre ellos. Tales relaciones proporcionan apoyo social, que es un factor modificador esencial en la reducción de los efectos adversos sobre la salud mental y los trastornos físicos, como las enfermedades cardiovasculares (House 1981). Las relaciones sociales natural- mente también reducen el aislamiento y promueven una mayor salud mental.
Debido a que las condiciones poco ergonómicas también pueden producir problemas psicosociales para los usuarios de PVD, el establecimiento de las condiciones ergonómicas adecuadas es un elemento esencial del diseño integral del trabajo. De este tema se trata con más detalle en otras secciones de este capítulo y en otros capítulos de la Enciclopedia.

martes, 19 de noviembre de 2013

Vivienda (II)

Los problemas de vivienda pueden tener también un efecto directo sobre la salud en el trabajo de quienes trabajan en entornos residenciales. Entre esas personas cabe citar las que se dedican al servicio doméstico y un número cada vez mayor de pequeños productores de diversos tipos de industrias rurales. Dichos productores pueden verse afectados también por procesos de producción contaminantes. En algunos estudios sobre este tipo de industrias se han detectado residuos peligrosos, con consecuencias como enfermedades cardiovasculares, cáncer de piel, trastornos neurológicos, cáncer de bronquios, fotofobia y metahemoglobinemia infantil (Hamza 1991).
Para prevenir los problemas relacionados con la vivienda pueden adoptarse medidas en distintas fases del proceso:
1. ubicación (por ejemplo, lugares seguros y libres de vectores);
2. diseño de la casa (por ejemplo, espacios suficientemente amplios y protección climática, utilización de materiales de construcción no perecederos, protección suficiente para el equipamiento);
3. construcción (prevención de los defectos constructivos),
4. mantenimiento (por ejemplo, control adecuado del equipa- miento y detección adecuada).
La inserción de actividades industriales en el entorno residencial puede exigir medidas especiales de protección, dependiendo del proceso productivo de que se trate.
Las soluciones concretas pueden variar mucho de un lugar a otro, en función de las circunstancias sociales, económicas,

técnicas y culturales. Son muchas las ciudades y los pueblos que cuentan con una legislación local en materia de urbanismo y construcción que incluye medidas para prevenir los peligros para la salud. Sin embargo, la legislación no suele aplicarse por ignorancia, falta de control legal o, en la mayoría de los casos, por falta de recursos financieros para construir viviendas adecuadas. Por consiguiente, es importante no sólo elaborar códigos adecuados (y actualizarlos), sino también crear las condiciones necesarias para su aplicación.

Mejora de las características psicosociales del trabajo con PVD (I)

El primer paso para reducir el estrés del trabajo con las PVD es identificar las características de la organización y del diseño del trabajo que pueden causar problemas psicosociales, a fin de poder modificarlas, sin perder de vista que los problemas de las PVD que pueden producir estrés laboral generalmente no son el resultado de aspectos aislados de la organización o del diseño del trabajo, sino más bien una combinación de varios aspectos de un diseño inadecuado del trabajo. Por lo tanto, las soluciones para reducir o eliminar el estrés laboral deben ser globales y consi- derar simultáneamente los numerosos factores de un diseño inadecuado del trabajo. Las soluciones que se centran única- mente en uno o dos factores no suelen tener éxito (véase la Figura 52.10.)
Las mejoras en el diseño del trabajo deberían comenzar por la organización del trabajo, brindando a los trabajadores un ambiente de apoyo. Así se aumenta la motivación por el trabajo y la sensación de seguridad del trabajador, al mismo tiempo que se reduce el sentimiento de estrés (House 1981). Una política que defina la importancia de los empleados dentro de la organización y señale explícitamente la forma en la que la organiza- ción proporcionará un ambiente de apoyo es un buen comienzo. Una forma muy efectiva de proporcionar apoyo a los empleados es proveerse de supervisores y directivos con una formación específica sobre los métodos de brindar apoyo. Los supervisores que respaldan a sus empleados pueden actuar como “amortigua- dores” previniendo un estrés organizativo o tecnológico innecesario.
El contenido de las tareas se ha reconocido desde hace mucho tiempo como un elemento importante para la motivación y la productividad de los empleados (Herzberg 1974; Hackman y Oldham 1976). Más recientemente, se ha esclarecido la relación entre el contenido del trabajo y las reacciones de estrés (Cooper
y Marshall 1976; Smith 1987). Hay tres aspectos principales del contenido del trabajo que son específicamente importantes para el trabajo con PVD; estos son: la complejidad de la tarea, la cualificación del empleado y las oportunidades de desarrollo profesional. En cierto sentido, todos estos aspectos están relacio- nados con el fomento del clima motivacional que genere en el empleado satisfacción con el trabajo y desarrollo psicológico,
(el cual se refiere al perfeccionamiento de las habilidades y capacidades intelectuales de los empleados), favorezca el aumento de la autoestima o imagen de sí mismo y aumente el reconoci- miento social de los logros individuales.

lunes, 18 de noviembre de 2013

El individuo

Existen varios factores personales, como la personalidad, el estado de salud física, las habilidades y capacidades, el acondicionamiento físico, la experiencia y el aprendizaje previo, los motivos, objetivos y necesidades que determinan los efectos físicos y psicológicos antes descritos (Levi 1972).

domingo, 17 de noviembre de 2013

Factores relacionados con la organización

El contexto organizativo del trabajo puede influir sobre el estrés y la salud del trabajador. Cuando la tecnología requiere nuevas cualificaciones, la forma en que se presentan las nuevas tecnologías a los trabajadores y el apoyo que reciben de la organización, como la formación adecuada y el tiempo necesario para adaptarse, se ha relacionado con los niveles de estrés y las altera- ciones emocionales experimentadas (Smith, Carayon y Miezio
1987). La oportunidad para desarrollarse y promocionar en un trabajo (carrera profesional) también está relacionado con el estrés (Smith y cols. 1981). La incertidumbre con relación al futuro laboral es una fuente importante de estrés entre los usuarios de ordenadores (Sauter y cols. 1983b; Carayon 1993a) y la posibilidad de perder el empleo también genera estrés (Smith y cols. 1981; Kasl 1978).
Se ha indicado que la programación del trabajo, como los turnos de trabajo y las horas extra, repercuten negativamente sobre la salud física y mental (Monk y Tepas 1985; Breslow y Buell 1960). Las empresas que desean mantener los equipos en funcionamiento continuo, utilizan cada vez más el trabajo a turnos. Con frecuencia es necesario que los empleados hagan horas extra para poder cumplir con la carga de trabajo, especial- mente cuando se producen retrasos debido a la caída o al mal funcionamiento del sistema.
Los ordenadores proporcionan a los directivos la capacidad de controlar electrónicamente el rendimiento de los trabajadores continuamente; esto puede crear condiciones de trabajo estre- santes, por ejemplo, al aumentar la presión en el trabajo (véase el cuadro “Control electrónico”). Las relaciones personales negativas entre el empleado y el supervisor y la sensación de falta de control pueden aumentar en los lugares de trabajo supervisados electrónicamente.
La introducción de la tecnología de las PVD ha afectado a las relaciones sociales en el trabajo. El aislamiento social se ha iden- tificado como una fuente importante de estrés para los usuarios de ordenadores (Lindström 1991; Yang y Carayon 1993), ya que el aumento del tiempo que el trabajador dedica al ordenador reduce el tiempo disponible para relacionarse con otros trabaja- dores y recibir o dar apoyo social. La necesidad del apoyo de los supervisores y compañeros está bien documentada (House 1981), y se ha comprobado que puede reducir el impacto de otros factores de estrés sobre el estrés del trabajador. El apoyo de los compañeros, el supervisor o el personal técnico es importante para el trabajador que tiene problemas con su equipo; ahora bien, el ambiente de trabajo informático puede, irónicamente, reducir el nivel de tal apoyo social.