SciELO - Scientific Electronic Library Online

 
vol.34 número95El impacto del ejercicio del poder en el proceso de gestión escolar en las instituciones de educación media tecnológica: caso de la DGETI en el D.F. índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

Links relacionados

  • No hay artículos similaresSimilares en SciELO

Compartir


Investigación administrativa

versión On-line ISSN 2448-7678versión impresa ISSN 1870-6614

Investig. adm. vol.34 no.95 Ciudad de México ene./jun. 2005  Epub 13-Mayo-2024

 

Artículos

Impacto de los factores técnicos en la calidad del desarrollo de los sistemas de información para la toma de decisiones y uso por el usuario

Impact of technical factors on the quality of the development of information systems for decision making and use by the user

José Melchor Medina Quintero1 

Julián Chaparro Peláez2 

1Universidad Autónoma de Tamaulipas U.A.M. de Comercio y Administración-Victoria

2Universidad Politécnica de Madrid E.T.S. de Ingenieros de Telecomunicación


Abstract

This research analyzes the impact of some technical factors (Programmer Skills, Data Source and Technology Infrastructure) in the quality of development and operation of the information systems for the Decision Making and System Use by the user, based on a research model designed for this aim. The empirical study is carried out in six Higher Education Institutions in the northeast of Mexico (94 questionnaires) by means of a statistical tool known as Partial Least Squares. The results show that Programmer Skills and Information Quality are the elements with most impact, mainly in the Decision Making (60% of explained variance).

Keywords: Programmer; IT; Data Source; System Use; Decision Making

1. Introducción

La capacidad para el acceso inmediato a la información y datos comprensivos es crítica en el proceso de toma de decisiones y requiere la recolección, almacenamiento y el análisis de grandes cantidades de información, y con ello la utilización cotidiana de un Sistema de Información (SI), que sin duda es vital; sin embargo, para cumplir eficientemente con los procesos, el desarrollo de sistemas requiere de la participación de diversos factores en la organización sobre todos lo técnicos que crecen a una velocidad impresionante.

Por otra parte, al revisar los estudios del Standish Group (2001), quien a pesar de encontrar datos más halagüeños, siguen mostrando retrasos importantes en los proyectos de software: sobrepaso en el tiempo (63%), costos sobrepasados (45%), funciones totales cubiertas (67%), y solo el 28% fueron exitosos. Así mismo, pese a la enorme cantidad de investigación hecha, los SI continúan siendo críticos para las organizaciones en su empleo, pero siguen con fallas frecuentes por la falta de modelos claros (Ives, Olson y Baroudi, 1983); de tal suerte, no existe un modelo genérico para la implementación exitosa de SI y pocos estudios han examinado o establecido enlaces entre sus medidas (Gatian, 1994), surgiendo la cuestión de cuáles constructos representan mejor su éxito (Rai, Lang y Welker, 2002); no siendo sorpresivo ver un gran número de medidas de la efectividad en la literatura (Seddon et al., 1999), dentro de los que se encuentran: toma de decisiones y uso del sistema por el usuario.

En los tiempos más recientes, muchas investigaciones se basan en el Modelo de DeLone y McLean (1992), quienes notan que la multidimensionalidad y naturaleza independiente del éxito de los SI requiere atención cuidadosa para la definición y medición de cada aspecto del modelo, su último trabajo corresponde al año de 2003 (Figura 1); partiendo de esta base, el objetivo de esta investigación es identificar el impacto y grado de relación de tres factores técnicos en la calidad general del desarrollo y operación de los SI (Habilidades del Programador, Fuente de Datos e Infraestructura Tecnológica) para el eficiente desempeño individual de los usuarios medido en la forma de Toma de Decisiones y Uso del Sistema.

Fuente: DeLone y McLean (2003)

Figura 1 Modelo de DeLone y McLean 

Para cumplir con el objetivo, se examina y prueba un modelo de investigación en seis Instituciones de Educación Superior en Ciudad Victoria, México; en específico, se analiza el Sistema de Información de Control Escolar de las instituciones por ser uno de los elementos centrales en la vida académica de toda Universidad. Este estudio empírico se lleva a cabo por medio de la herramienta estadística Partial Least Squares, la cual permite evaluar modelos complejos.

2. Desempeño individual

En los últimos veinte años, se ha visto un movimiento hacia el estudio especializado del usuario, hoy, se intenta verlo de una manera más compleja, como una persona en un sistema social en la cual las computadoras juegan un rol importante (Karat y Karat, 2003), su estudio ha abarcado un gran número de factores de desempeño individual, dentro de los que destacan la Toma de Decisiones(Leidner y Elam, 1994; Fraser y Salter, 1995; Leidner et al., 1999; Hamill, Deckro y Kloeber, 2005) y Uso del Sistema(Ives, Olson y Baroudi, 1983; Davis, 1989; DeLone y McLean, 1992, 2003; Straub, Limayen y Karahanna-Evaristo, 1995; Edberg y Bowman, 1996; Seddon, 1997; Rai, Lang y Welker, 2002).

Toma de Decisiones

La toma de decisiones es uno de los roles más importantes de los ejecutivos (también usuarios) (Leidner y Elam, 1994), en especial cuando dicho proceso en una organización es multidimensional (Teng y Calhoun, 1996), porque la importancia de una decisión es el impacto de ésta en la empresa y en el desempeño a largo plazo (Tzu-Chuan, Dyson y Powell, 1998). La calidad de la información permite a un tomador de decisiones justificar las bases de las decisiones, argumentando que si la información usada es oportuna, exacta y confiable, entonces, cualquier decisión hecha es buena (O’Reilly, 1982).

Este concepto se define como la selección de un curso de acción entre alternativas, la cual tiene que estar enganchada con otras actividades (Koontz y Weihrich, 2000); en otras palabras, la generación, evaluación y selección de soluciones en forma racional (Huber y McDaniel, 1989), porque el mundo se mueve hacia mercados abiertos y globales, la necesidad por el acceso a información oportuna, confiable y fácil será la clave para la efectiva toma de decisiones (Leidner et al., 1999; Hamill, Deckro y Kloeber, 2005). Con el enfoque de sistemas, las personas tienen que ser sensibles a las políticas y programas de otras unidades organizacionales (esencialmente con quienes tienen relación directa) y de toda la empresa; precisamente cuando los SI abarcan todo el rango de operaciones y las actividades de toma de decisiones (Miller y Doyle, 1987), de la misma manera, considerando que el efecto potencial de la tecnología de información (TI) en estas tareas en todos los niveles ha sido capturado por los investigadores de los SI desde principios de la era informática.

Así mismo, un SI nuevo, normalmente es justificado por el mejor rendimiento de la información que mejora la toma de decisiones, con ayuda del incremento de las capacidades tecnológicas (Hamill, Deckro y Kloeber, 2005), a este hecho, Huber (1984) sugiere que la integración de la TI en el proceso de toma de decisiones permitirá un incremento significativo tanto en la eficacia como en la efectividad de ésta, por medio de su fácil acceso y confiabilidad.

Uso del Sistema

El Uso es una variable central en la investigación de SI (DeLone y McLean, 1992, 2003; Straub, Limayen y Karahanna-Evaristo, 1995; Seddon, 1997) la cual se ha definido y conceptualizado como el número de veces que se utiliza un sistema (Goodhue y Thompson, 1995), ya que una empresa que paga por un SI que no usa y no apoya a los objetivos del negocio, no tiene éxito (Rainer y Watson, 1995), es como si no lo usara y ha hecho una mala inversión (Markus y Keil, 1994), estos últimos investigadores arguyen también que su uso es inevitable cuando el interés de desarrolladores y usuarios está alineado con buenos diseños de los sistemas.

El uso del sistema de información se considera como una conducta que refleja una expectación de los beneficios netos por ese uso, proporcionando un resultado conductual del éxito del sistema (Seddon, 1997; Rai, Lang y Welker, 2002), pero si el usuario considera que el sistema no es confiable y sus datos inexactos, esas dudas se reflejarán en su uso (Ives, Olson y Baroudi, 1983), y cuando la satisfacción impacta el uso, con un alto nivel, construye una mayor dependencia (Rai, Lang y Welker, 2002); incluso, si el usuario cree que el sistema es bueno, importante y personalmente relevante cree también que el uso es bueno y dará lo esperado de él (Davis,1989; Hartwick y Barki, 1994).

Por otro lado, muchas causas potenciales del no uso de los sistemas son previsibles, atribuible a uno de dos factores: utilidad del software (amigable con el usuario) e implementación (el staff debe asegurarse que se use) (Markus y Keil, 1994), al mismo tiempo muchos sistemas no son diseñados para la implementación a fin de mejorar el desempeño individual y organizacional; en esta idea, es importante encontrar el por qué los individuos eligen o no usar un SI (Mathieson y Chin, 2001). Así por ejemplo, en los resultados de Srinivasan (1985), muestran que quienes pasan largos períodos de tiempo frente a la computadora, tienden a ver el sistema como que no contribuye favorablemente a sus operaciones.

3. Dimensiones de calidad

Existen intentos para replicar el éxito de la calidad de los productos en los sistemas de información (Juran y Godfrey, 1999); consecuentemente, es indiscutible la necesidad de involucrar en el proceso de evaluación de SI los elementos más estudiados en el mundo moderno: Calidad de la Información, Calidad del Sistema y Calidad de los Servicios.

Calidad de la Información

Los principios de calidad de Deming, Ishikawa, Juran, Crosby y otros, se han aplicado en la mejora de la calidad de los productos, pero en la actualidad también se ha hecho en la información (English, 2001), donde cada producto de información tiene un valor intrínseco para el usuario; de tal manera que este constructo debería ser operacionalizado como la combinación de características relevantes de los SI, con referencia a su importancia al usuario (Fraser y Salter, 1995).

Sin duda, el concepto de calidad de la información es un tema de actualidad que ninguna institución puede descuidar o ignorar, porque en los tiempos modernos su dependencia es vital, definida como apta para usarse, sin una aceptación universal (Juran y Godfrey, 1999) y difícil de medirla usando este término tan amplio. Por tanto, la calidad de la información es crítica para las organizaciones, y a pesar de décadas de investigación y práctica, el campo adolece de metodologías comprensivas para su evaluación y mejoramiento, sin una propuesta sistemática (Ballou et al., 1998), siendo esencial la necesidad de una metodología que evalúe cómo las organizaciones desarrollan sus productos de información (Kahn, Strong y Wang, 2002), porque los directivos se siguen quejando que las TI no han aumentado la calidad de su suministro de información, ya sea ésta interna o externa (Cornella, 1994).

De la vertiente anterior, los usuarios viven en un ambiente rico en información, mucho más que antes y para las organizaciones del sector público o privado quienes viven en un ambiente competitivo, la calidad de la información es una manera de sobrevivir y generar ventaja competitiva (English, 1998). Afortunadamente, ha habido muchos estudio al respecto, y entre los atributos que mejor la definen se encuentra: exacta, oportuna, completa, confiable, relevante, precisa y consistente (Pitt, Watson y Kavan,1995; DeLone y McLean, 2003).

Hipótesis:

H1: La Calidad de la Información está asociada con la producción de mejores Tomas de Decisiones por el Usuario

H2: La Calidad de la Información está asociada con el Uso del SI por el usuario

Calidad del Sistema

La calidad del sistema (software) se define como la ausencia de defectos (Chow, 1985), en sí, cualquier falla de una aplicación para desempeñar su propósito previsto (Edberg y Bowman, 1996), y como los sistemas se han hecho más complejos (Rai y Al-Hindi, 2000), es un requisito en su desarrollo el incremento de la productividad y la calidad del software producido (Hull et al., 2002).

El enfoque de calidad se basa de igual forma en qué tan bien una aplicación satisface los requerimientos del usuario (Edberg y Bowman, 1996). Los desarrolladores de software pioneros en la calidad, han intentado identificar factores que representen las características conductuales del sistema; según Bennatan (2000), la definición de las métricas de calidad son difíciles de establecer, dependerá de las necesidades de cada organización, afectando a muchos aspectos, incluyendo a la exactitud, robustez, amabilidad y desarrollabilidad; de tal suerte, un SI está disponible cuando tiene los elementos de calidad suficientes (Hamill, Deckro y Kloeber, 2005).

También, en la revisión de DeLone y McLean (2003) encontraron que la calidad del sistema fue medida en términos de facilidad de uso, funcionalidad, confiabilidad, flexibilidad, calidad de datos, portabilidad, integración e importancia. En este ámbito, los modelos de éxito de los SI han identificado a la calidad del sistema como una característica relevante de la percepción del usuario de creer y usar la nueva tecnología (Igbaria, Guimaraes y Davis, 1995) dirigiendo al impacto positivo en la productividad individual y organizacional (DeLone y McLean, 2003), su estudio por lo general proporciona información invaluable para directivos y desarrolladores/analistas.

De lo antes expuesto, cuando se inicia un proyecto de desarrollo, la calidad es una meta a alcanzar, porque con ella, se asegura que el SI cumple con los estándares institucionales y los requeridos según el ámbito de competencia; por ello, la comunidad de investigadores de la calidad del software tiene mucho que ofrecer a los practicantes del tema, desafortunadamente solo una pequeña fracción de las ideas se han aplicado, las cuales datan de más allá de la década de los años de 1970’s (Osterweil et al., 1996), y pocos directivos han implementado estrategias para asegurar la alta calidad de los sistemas; es decir, no se le da la importancia requerida. De tal suerte, han surgido diversas herramientas que ayudan a mejora su calidad: el grupo Software Quality Assurance (Aseguramiento de la Calidad del Software), la serie ISO 9000 (9001 y 9004-2), el Modelo CMM (Capability Maturity Model), la Fundación Europea para la Administración de la Calidad (European Foundation for Quality Management), entre otros.

H3: La Calidad del Sistema está asociada con la producción de mejores Tomas de Decisiones por el Usuario

H4: La Calidad del Sistema está asociada con el Uso del SI por el usuario

Calidad de los Servicios

En últimas fechas se le ha dado más importancia a los servicios prestados por los SI, porque el sistema en general provee servicios a los stakeholders (personas con interés en el SI), que sirve a sus necesidades, y con la aparición de la informática del usuario final a mediados de los años de 1980’s colocó a las organizaciones en un rol dual de proveedores de información y de servicios para ellos (Jiang et al., 2001).

La Calidad de los Servicios se refiere al juicio global o actitudes relacionadas a la evaluación del nivel de servicios proveídos por el departamento de SI y apoyo del personal (Boon, Wilkin y Corbitt, 2003), incluye la manera en la cual son proporcionados (Rao y Kelkar, 1997), son intangibles, no se mantienen en stock y sus atributos son difíciles de medir (Reeves y Bednar, 1994). Por tal motivo, se requiere evaluar los servicios, donde el enfoque de una organización es medir la percepción de calidad por parte de los usuarios (Wilkin, Hewett y Carr, 2004), aunque es evaluada subjetivamente (Reeves y Bednar, 1994; Kettinger y Lee, 1995; Rao y Kelkar, 1997).

Dentro de las principales dificultades en su manejo se encuentra la estimación y planeación de recursos, incluyendo al staff, facilidades y equipo especial requerido para entregarlos (Herndon et al., 2003). Este proceso incluye proveer los servicios a los usuarios con exactitud, prontitud y amabilidad, conocimiento del staff, proporcionar el equipo adecuado y atención personalizada (Watson, Pitt y Kavan, 1998), porque los usuarios de las computadoras no quieren una máquina, quieren un sistema que satisfaga sus necesidades informáticas (Pitt, Watson y Kavan, 1995). Kettinger y Lee (1995) creen que la calidad de los servicios de los SI enfocados al usuario, ayudan a alcanzar los objetivos organizacionales mientras se cumplen sus necesidades.

Uno de los instrumentos más ampliamente usados es SERVQUAL, ayuda a los investigadores a medir la evaluación de la calidad de los servicios en los SI (Pitt, Watson y Kavan, 1995), desarrollado por Parasuraman, Zeithaml y Berry (1985), dicho cuestionario cuenta con 22 ítems agrupados en cinco dimensiones: tangibles, confiabilidad, responsabilidad (interés), confianza/garantía y empatía.

H5: La Calidad de los Servicios está asociada con la producción de mejores Tomas de Decisiones por el Usuario

H6: La Calidad de los Servicios está asociada con el Uso del SI por el usuario

4. Factores técnicos

Las Tecnologías de Información se refieren al hardware, software, servicios, equipo de oficina, gastos en TI y la proporción interna de gastos de SI (WITSA, 2000). DeLone y McLean (1992) en su revisión encontraron que los investigadores se han enfocado en la medición del éxito de los SI en los detalles técnicos (e.g. interfase, metodologías de desarrollo, habilidades de programadores); por tanto, es un factor clave en los sistemas de automatización (Balsamo et al., 2004), y con el desarrollo de nuevos sistemas en la organización, se adquiere la necesidad de nuevas herramientas técnicas (Álvarez, 2001) mostrando la importancia de la utilización de las más adecuadas para el desarrollo y uso de los SI.

Habilidades del Programador

El desarrollo de software es una actividad demasiado intensiva, en la práctica contemporánea se caracteriza por proyectos sin planeación, entregas tardías, presupuestos excedidos, reducción de funciones, calidad cuestionable (Dalcher, 2004), pero los principales riesgos del programador (ingeniero de software) de un SI es conocer si el usuario usará el sistema (Bajaj y Nidumolu, 1998) y si lo satisfacerá plenamente (Yuthas y Young, 1998), tomando en cuenta también que el análisis a las habilidades del programador (técnicas y de procesos) se ha estimado como un factor de éxito de implantación de los SI (Guimaraes e Igbaria, 1997; Jiang et al., 2001), más precisamente en los aspectos de calidad (Dyba, 2000).

Los programadores son especialistas con muchas capacidades técnicas, quienes traducen los requerimientos en las instrucciones del software para la computadora, su responsabilidad es crear los programas con la más alta calidad, integración de base de datos y libres de errores. En estos días, se relacionan con el entorno de desarrollo: lenguajes de programación, sistemas operativos, productos de telecomunicaciones y software de base de datos, deben comprender la tecnología, sus límites, etc.; además se une el hecho que las tecnologías de información han avanzado y han surgido nuevos lenguajes y herramientas de programación sofisticados que han redefinido el rol del programador y han elevado en mucho el trabajo hecho hoy en día.

Algunas investigaciones que ayudan a sustentar las relaciones son debido a las constantes fallas en los desarrollos de sistemas (Standish Group, 2001; Dalcher, 2004), la influencia positiva que tienen las habilidades del ingeniero de software (Harter, Krishnan y Slaughter, 2000), considerando a la globalización en la que viven las organizaciones; por lo tanto, las habilidades del programador se han demostrado como clave para el éxito de los sistemas (Guimaraes e Igbaria, 1997; Bajaj y Nidumolu, 1998; Watson, Pitt y Kavan, 1998; Jiang et al., 2001) sobre todo por la interacción con los usuarios (Harter, Krishnan y Slaughter, 2000).

H7: El alto nivel de las Habilidades del Programador está relacionado con el éxito de la Calidad de la Información

H8: El alto nivel de las Habilidades del Programador está relacionado con el éxito de la Calidad del Sistema

H9: El alto nivel de las Habilidades del Programador está relacionado con el éxito de la Calidad de los Servicios

Fuente de Datos

Los directivos se sienten frustrados por invertir grandes cantidades de dinero en tecnologías de información y no la obtienen cuando la necesitan (la información); la cual debe ser considerada como un recurso o un activo en las organizaciones (Cornella, 1994). Estudios pasados han encontrado que la calidad de datos existentes en una organización pueden tener un profundo efecto en las iniciativas de los sistemas, y junto con la rápida adopción de las herramientas de comunicación en los años recientes, ha generado una avalancha de tráfico de información, habiendo un desorden en los datos (Tetzeli, 1994). Sin duda, la comunicación entre los diversos departamentos en una institución se hace cada vez más importante por el incremento de actividades conjuntas, y los SI permiten que se haga lo más eficiente posible. De esta manera, se vuelve esencial para el aseguramiento del procesamiento de la información y verificar que las salidas del sistema sean a tiempo, relevantes, exactas, eficientes, efectivas en costos (Boon, Wilkin y Corbitt, 2003) y rápida para la toma de decisiones (Hamill, Deckro y Kloeber, 2005); por lo que se requiere una planeación eficiente de los datos fuente y destino; lo primero ha mostrado proveer información clara y más probablemente usada con mayor frecuencia (O’Reilly, 1982).

Connolly y Thorn (1987) encontraron que los encargados de SI subutilizaban las fuentes de recursos de datos; debido a que las organizaciones ahora están más equipadas para desarrollar sistemas que usan datos originados de varias fuentes (Ballou et al., 1998); consecuentemente, se requiere una comunicación con los usuarios para asegurarse que se tiene información exacta y expectativas realistas de la entrada y salida de información (Watson, Pitt y Kavan, 1998). De la misma forma, la habilidad para encontrar datos al nivel de detalle adecuado puede afectar su localización correcta para los usuarios, influyendo en su satisfacción con la generación de información y con el propio sistema (Shin, 2003).

H10: La calidad de la Fuente de Datos está relacionada con el éxito de la Calidad de la Información

H11: La calidad de la Fuente de Datos está relacionada con el éxito de la Calidad del Sistema

H12: La calidad de la Fuente de Datos está relacionada con el éxito de la Calidad de los Servicios Infraestructura Tecnológica

Infraestructura Tecnológica

La conceptualización de la Infraestructura Tecnológica o TI, se define como todas las formas de tecnología utilizada para crear, almacenar, intercambiar y usar información en sus varias formas (datos de negocio, conversaciones de voz, imágenes, películas y otras) (Tzu-Chuan, Dyson y Powell, 1998), su uso ha pasado de unos cuantos usuarios a casi todos (Karat y Karat, 2003), y en el contexto de la investigación de los SI, se refiere al sistema informático (hardware, software, datos) y soporte de servicios a los usuarios (capacitación, ayuda en línea, etc.) (Goodhue y Thompson, 1995).

Por otra parte, la Tecnología de Información provee la infraestructura de hardware y software, en la cual las empresas se apoyan para la construcción de proyectos de sistemas (Wixom y Watson, 2001), generar información, ordenar sus datos y tomar mejores decisiones, y es ampliamente aceptado que la TI está transformando la naturaleza de la práctica de los negocios (Azari y Pick, 2005), así como también las nuevas tecnologías están emergiendo en la industria del software, para convertir rápidamente obsoletos los productos informáticos (Harter, Krishnan y Slaughter, 2000).

El problema de muchas empresas es tratar de cuantificar el retorno de la inversión de las TI, esta situación es difícil de medir, pero no imposible para justificar el costo, porque proveen un retorno no intrínseco. Además, muchas de las promesas de la TI no se han realizado, y la paradoja de la productividad se ha cuestionado seriamente sobre todo por la inversión hecha (Auer y Rouhonene, 1997) y no responder a las necesidades fundamentales de la empresa; sin embargo, algunos investigadores como Brynjolfsson y Hitt (1995) encontraron evidencia de que las compañías que usaron TI para el ahorro de costo en mano de obra fueron más exitosas que sus competidores al aumentar la productividad.

H13: El nivel de desarrollo de la Infraestructura Tecnológica está relacionado con el éxito de la Calidad de la Información

H14: El nivel de desarrollo de la Infraestructura Tecnológica está relacionado con el de la Calidad del Sistema

H15: El nivel de desarrollo de la Infraestructura Tecnológica está relacionado con el éxito de la Calidad de los Servicios

5. Método

La educación está jugando un rol crucial en el cambio tecnológico, Álvarez (2001) en su estudio encontró que en los SI escolares algunos investigadores han adoptado una hermenéutica crítica para examinar la implementación y uso de tecnología; de esta manera se selecciona el Sistema de Información de Control Escolar (SICE) de las Instituciones de Educación Superior (IES) por su parecido en todas en cuanto al manejo de la información: alumnos, empleados, profesores, planes de estudio, oferta educativa, las interfases del sistema, están en una misma ciudad, entre otras características. La aplicación en estas IES mexicanas es de mucha importancia, debido a que en la revisión previa de la literatura de los principales centros de investigación y las principales universidades del país es casi nula la investigación en esta área en particular.

El proceso seguido para cumplir con la acometida principal, inició con la revisión del estado de arte en cuanto a factores técnicos, dimensiones de calidad y variables del desempeño individual (Toma de Decisiones y Uso del Sistema); en este sentido, se plasma el Modelo de Investigación (Figura 2) donde se aprecian las hipótesis, los constructos de las variables independientes y dependientes, las cuales se operacionalizan de la siguiente manera:

Fuente: Elaboración propia

Figura 2 Modelo de investigación 

Variables Independientes:

  • Habilidades del Programador: habilidades (técnicas, de procesos, administrativas), actitudes

  • Fuente de Datos: inversión, comunicación, acceso, base de datos organizacional, utilidad

  • Infraestructura Tecnológica: capacidad, planeación, productividad, integración

  • Calidad de la Información: exacta (confiable), oportuna, actual, útil, completa, relevante

  • Calidad del Sistema: facilidad de uso, exactitud, eficiencia operacional (seguro, estable, veloz), adaptabilidad, amigable

  • Calidad de los Servicios: tangibles (actualización de hardware y software), fiabilidad del staff (interés), responsabilidad (apoyo rápido), confianza en el staff (competente), empatía (atención)

Variables Dependientes:

  • Toma de Decisiones: eficiente, alternativas, velocidad, beneficios, productividad

  • Uso del Sistema: Efectividad, uso/no uso, facilidad del sistema, utilidad, aceptación

Acto seguido, es el diseño de un cuestionario tentativo para que sea revisado por profesionales en el área. Después de ser validado por expertos y académicos, el siguiente paso consiste en la realización de un estudio piloto, lo que ayuda a establecer la validez de los ítems y el contenido (Straub y Carlson, 1989), en otras palabras, la aplicación de pretest del instrumento para perfeccionarlo, solicitando retroalimentación de los posibles errores. Esta actividad se llevó a cabo a finales de noviembre y principios de diciembre del año 2004. La principal aportación se ha suscitado en el sentido de eliminar ítems que no tenían la suficiente carga (loading) con el constructo que intentaban medir. El resultado fue la determinación de tres ítems para las variables de los factores técnicos y cinco para las dimensiones de calidad y las de desempeño individual, valorados en una escala tipo Likert 5 (Muy en Desacuerdo ... Muy de Acuerdo); la cual tiene más de tres valores para su medición, porque si se usa una escala pequeña, no se obtiene el poder discriminatorio de quienes responden, al igual cuando se usa una escala grande (Dyba, 2000), argumentando que la escala ideal es la de 5 puntos, porque el establecer niveles aceptables de los constructos es crítico para cualquier investigación (Segars y Grover, 1993).

Teniendo el cuestionario validado, se procede a su aplicación y recolección de datos en el mes de abril del año 2005 a los usuarios que operan el SICE, lo que incluye operarios y directivos que lo usan. Las mediciones perceptuales fueron iguales para todos los ítems. Se repartieron en total 180 cuestionarios en las seis IES y obtenerse 94 válidas para generar una captación del 52.2%.

Posteriormente, en base a la información obtenida, se deriva al desarrollo de su descripción general y analítica por medio del software PLS Graph y el remuestreo de bootstrap (500 subejemplos) para crear cruces de variables, matrices de correlaciones, cargas factoriales, Varianza Extraída Media (Average Variance Extracted-AVE), etc. con el fin de comprobar las hipótesis diseñadas. Por último, se procede al desarrollo de las conclusiones tomando en consideración los análisis anteriores.

Por otra parte, PLS servirá para originar la validación del modelo en una forma integral, es decir, los resultados de esta herramienta estadística, permitirá concluir si el modelo de investigación tiene la suficiente confiabilidad. Para ello, los parámetros de medida y estructurales son estimados a la vez (analizado e interpretado en dos etapas) (Barclay, Higgins y Thompson, 1995): Modelo de Medida y Modelo Estructural.

a. Validación del Modelo de Medida

El modelo de medida trata de analizar si los conceptos están medidos correctamente a través de las variables observadas:

  • Validación de la Fiabilidad del Ítem: para fines de esta investigación se siguió la guía de Cepeda y Roldán (2004) quienes consideran que la fiabilidad individual del ítem es valorada examinando las cargas (🅇) o correlaciones simples. Para aceptar un indicador ha de poseer una carga igual o superior a 0.707 (🅇2, 50% de la varianza es explicada).

  • Consistencia Interna (Validación de la Fiabilidad de Constructos): evaluada por el alfa de Cronbach (0.7), en este caso se usa el estadístico de Fornell y Larcker (1981) quienesargumentan que su medida es superior a la de Cronbach por los resultados que han obtenido en sus investigaciones de 0.707

  • Validación Convergente: esta evaluación se lleva a cabo por medio de AVE, sus valores deben de ser mayores de 0.50 con lo que se establece que más del 50% de la varianza del constructo es debido a sus indicadores (Fornell y Larcker, 1981), solo se puede aplicar a indicadores reflectivos (Chin, 1998).

  • Validación Discriminante: para esta valoración se usa AVE (Fornell y Larcker, 1981; Cepeda y Roldán, 2004); la cual debe ser mayor que la varianza compartida entre el constructo y otros constructos en el modelo, la matriz correspondiente proporciona estos valores.

b. Validación del Modelo Estructural

El modelo estructural evalúa el peso y la magnitud de las relaciones (hipótesis) entre las distintas variables. Para esta valoración se usan dos índices básicos: varianza explicada (R2) y el coeficiente path estandarizado (🅇):

  • R2 indica la varianza explicada por el constructo dentro del modelo. La cual debería ser igual o mayor a 0.1, porque valores menores, aún siendo significativos, proporcionan poca información (Cepeda y Roldán, 2004).

  • 🅇 representa los coeficientes path, siendo identificado en el nomograma (gráfico de PLS) por medio de las flechas que vinculan a los constructos en el modelo interno, este coeficiente se obtiene de la forma tradicional (como regresión múltiple). Chin (1998) propone que para ser considerados significativos, deberían alcanzar al menos un valor de 0.2 e idealmente situarse por encima de 0.3.

Resultados del Modelo

PLS Graph versión 03.00 Build 1126 se usó para el análisis y el remuestreo, el tamaño de la muestra es de 94, la cual excede los mínimos recomendados por algunos investigadores: 30 o 40.

Los datos generales incluidos en el cuestionario indican:

  • 68% son mujeres; 32% hombres

  • Rango de edad: 21-30 años, 4%; 31-40 años, 59%; 41-50 años, 28%; 51 o más, 9%

  • Años usando el SICE: 1-5 años, 38%; 6-10 años, 26%; 11-15 años, 21%; 16 o más años, 15%

  • Horas aproximadas a la semana que usa el sistema: 0-10 hrs., 17%; 11-20 hrs., 15%; 21-30 hrs., 36%; 31-40 hrs., 17%; 41 o más horas, 15%

Modelo de Medida:

  • Fiabilidad de Ítems: los 34 indicadores reflectivos presentan valores aceptables (Tabla 1), las cargas de los factores oscilan entre 0.7151 y 0.9861, superando el mínimo de 0.707.

  • Consistencia Interna (Fiabilidad de Constructos): la Tabla 1 muestra que la confiabilidad interna está dada en esta investigación (va de 0.859 al 0.961), superando los requerimientos mínimos del estadístico de Fornell de 0.707.

  • Validez Convergente: la validez convergente de la medida del cuestionario fue la adecuada (Tabla 1), AVE excede en todos el 0.50 (los valores van desde 0.661 hasta 0.852) y la confiabilidad de los ítems (factor de carga) todos están por arriba de las recomendaciones. Se llevó a cabo el remuestreo para la obtención de los valores de T-statistic obteniendo como resultados que todos fueran significantes.

  • Validez Discriminante: para evaluar la validez discriminante, la raíz cuadrada de AVE debe de ser más grande que la varianza compartida entre el constructo latente y otros latentes en el modelo (Barclay, Higgins y Thompson, 1995; Chin, 1998). Por esta razón, se examina esta validez mostrada en la Tabla 2 (en diagonal), las variables satisfacen esta condición.

Tabla 1 Confiabilidad individual de la carga de los indicadores reflectivos y validez convergente de los coeficientes 

Constructo/ Ítem Carga Confiabilidad Interna AVE
Habil. del Programador 0.875 0.700
Prog1 0.8825
Prog2 0.7578
Prog3 0.8651
Fuente de Datos 0.932 0.821
Dat1 0.9421
Dat2 0.8972
Dat3 0.8786
Infraestructura Tecnol. 0.859 0.852
IT1 0.9836
IT2 0.9861
IT3 0.7841
C. de la Información 0.932 0.735
Inf1 0.9125
Inf2 0.9535
Inf3 0.8950
Inf4 0.7224
Inf5 0.7817
C. del Sistema 0.946 0.779
Sis1 0.8165
Sis2 0.8676
Sis3 0.8895
Sis4 0.9209
Sis5 0.9148
C. de los Servicios 0.923 0.706
Ser1 0.8873
Ser2 0.8827
Ser3 0.8994
Ser4 0.8102
Ser5 0.7151
Toma de Decisiones 0.945 0.661
TD1 0.7924
TD2 0.8271
TD3 0.7264
TD4 0.9565
TD5 0.8538
Uso del Sistema 0.961 0.832
Uso1 0.7904
Uso2 0.9116
Uso3 0.9317
Uso4 0.9710
Uso5 0.9461

Fuente: Elaboración propia

Tabla 2 Correlación de variables 

Pro Dat I.T. C.I. Sis Se TD Uso
Pro 0.837
Dat 0.084 0.906
I.T. 0.169 0.064 0.923
C.I 0.328 0.099 0.109 0.857
Sis 0.424 0.119 0.202 0.845 0.883
Se 0.393 0.227 0.187 0.744 0.731 0.840
TD 0.204 0.153 0.052 0.672 0.578 0.750 0.813
Uso 0.189 0.120 0.102 0.696 0.501 0.528 0.776 0.912

Nota: Los datos en diagonal es la raíz cuadrada de AVE entre el constructo y sus medidas. Para la validez discriminante, estos datos deben de ser mayores a los datos en el mismo renglón y columna (interconstructo).

Prog =Habilidades Programador

Dat =Fuente de Datos

I.T. =Infraestructura Tecnológica

C.I. =Calidad de Información

Sis =Calidad del Sistema

Se =Calidad de los Servicios

TD =Toma de Decisiones

Uso =Uso del Sistema

Fuente: Elaboración propia

Modelo Estructural:

La Tabla 3 muestra el resultado de cada una de las hipótesis planteadas, para lo cual, en la Figura 3 se detallan en forma gráfica, mostrando el modelo de investigación evaluado empíricamente; indicando además que los valores obtenidos están en los rangos de los parámetros aceptados (definidos con anterioridad).

Tabla 3 Resumen de resultados de PLS graph 

Hipótesis Coeficiente Path T-statistic Comentario
1. C. de la Información Toma de Decisiones 0.3780 1.9786 Aceptada
2. C. de la Información ‹ Uso del Sistema 0.9070 8.1111 Aceptada
3. C. del Sistema ‹ Toma de Decisiones 0.1800 0.9265 No Aceptada
4. C. del Sistema ‹ Uso del Sistema 0.3390 2.0371 Aceptada
5. C. de los Servicios ‹ Toma de Decisiones 0.6000 5.2487 Aceptada
6. C. de los Servicios ‹ Uso del Sistema 0.1010 1.0240 No Aceptada
7. Habil. Programador ‹ C. de la Información 0.3110 2.9317 Aceptada
8. Habil. Programador ‹ C. del Sistema 0.3920 3.6219 Aceptada
9. Habil. Programador ‹ C. de los Servicios 0.3520 3.8810 Aceptada
10. Fuente de Datos ‹ C. de la Información 0.0760 0.6970 No Aceptada
11. Fuente de Datos ‹ C. del Sistema 0.0950 0.9493 No Aceptada
12. Fuente de Datos ‹ C. de los Servicios 0.2070 2.2550 Aceptada
13. Infraestructura Tec. ‹ C. de la Información 0.0620 0.5936 No Aceptada
14. Infraestructura Tec. ‹ C. del Sistema 0.1410 1.4475 No Aceptada
15. Infraestructura Tec. ‹ C. de los Servicios 0.2310 2.1922 Aceptada

Fuente: Elaboración propia

Fuente: Elaboración propia

Figura 3 Modelo de investigación evaluado con PLS graph 

6. Conclusiones

Esta investigación se lleva a cabo en IES del noreste de México preocupadas por encontrar nuevas opciones de tecnología para su administración y de información para el apoyo de las funciones tanto operativas como directivas, y después de hacer el respectivo estudio empírico y la contrastación y evaluación de las hipótesis, ahora es preciso abordar el tema de contestar al objetivo planteado en base a los datos arrojados por esos análisis.

De las 15 hipótesis hechas, 9 se encontraron significativas (60%) y 6 no tienen significancia (40%). El análisis provee una fuerte relación entre las Dimensiones de Calidad con la Toma de Decisiones y Uso del Sistema; conjuntamente el modelo aplicado tiene un buen poder predictivo para la mayoría de las variables implicadas con un 55.7% de la varianza explicada (en promedio de las variables dependientes), ayudando a entender la predictibilidad e influencia de los SICE en el desempeño individual de sus usuarios.

Tratando de contestar el objetivo de esta investigación, las Habilidades del Programador es el factor de mayor impacto al tener aceptadas sus tres hipótesis a un nivel de significancia de p<0.01 y p<0.001; indicando que los usuarios consideran esencial para la toma de decisiones y uso del SI que el programador conozca sus procesos administrativos, las herramientas computacionales adecuadas y cumpla con las metodologías precisas para el desarrollo de los sistemas. En contraparte, los usuarios no consideran relevante la fuente de la información y los equipos informáticos con los que trabajan día a día.

La Calidad de la Información (útil, reportes exactos, oportuna, fácil de interpretar, actualizada) es el elemento de las dimensiones de calidad con más influencia en el desempeño de los usuarios en cuanto a la Toma de Decisiones (velocidad en procesos, información relevante, decisiones de calidad, alternativas) y Uso del Sistema (uso óptimo de reportes, mejora de desempeño y efectividad, facilitación del trabajo diario). Estos datos se determinan por tener aceptadas sus dos hipótesis definidas (0.378* y 0.907*** respectivamente).

También se puede detectar que las dimensiones de calidad en general impactan de manera similar a las variables dependientes; es decir, la Toma de Decisiones y Uso del Sistema son influenciadas en igual medida pero de diferentes elementos (ambas aceptan 2 de las 3 hipótesis propuestas), concluyendo que la predictibilidad del modelo está asociada con la varianza explicada, en el sentido de que el cambio en alguna de las variables independientes tiene un impacto en las dependientes.

Limitaciones

Tiene una aplicación práctica en instituciones universitarias en el noreste de México, en forma exacta en el análisis del sistema de información de control escolar. Los resultados solo se pueden generalizar en estas instituciones estudiadas; requiere análisis en otras sociedades con otro tipo de empresas e instituciones y sobre todo con otro tipo de usuarios, y por último, el modelo de investigación no viene de una teoría sencilla y consolidada de los SI y desempeño individual.

Reconocimientos

Nuestro más sincero reconocimiento por el apoyo a la investigación al Programa de Mejoramiento del Profesorado (PROMEP-UAT) en México y al Grupo de Ingeniería de Organización (GIO-UPM) en España.

7. Bibliografía

Álvarez, R. (2001). It Was a Great System: Facework and the Discursive Construction of Technology During Information System Development. Information Technology & People (14:4), pp. 385-405. [ Links ]

Auer, T.; M. Rouhonen (1997). Analysing the Quality of IS Use and Management in the Organizational Context: Experiences from Two Cases. Information Resources Management Journal (10:3), pp. 18-27. [ Links ]

Azari, R.; J.B. Pick (2005). Technology and Society: Socioeconomic Influences on Technological Sectors for United Sates Countries. International Journal of Information Management (25:1), pp. 21-37. [ Links ]

Bajaj, A.; S.R. Nidumolu (1998). A Feedback Model to Understand Information System Usage. Information & Management (33:4), pp. 213-224. [ Links ]

Ballou, D.; R. Wang; H. Pazer; G.K. Tayi (1998). Modeling Information Manufacturing Systems to Determine Information Product Quality. Management Science (44:4), pp. 462-484. [ Links ]

Balsamo, S.; A. Di Marco; P. Inverardi; M. Simeón (2004). Model-Based Performance Prediction in Software Development: A Survey. IEEE Transactions on Software Engineering (30:5), pp. 295-310. [ Links ]

Barclay, D.; C. Higgins; R. Thompson (1995). The Partial Least Squares (PLS) Approach to Causal Modeling: Personal Computer Adoption and Use as an Illustration. Technology Studies, Special Issue on Research Methodology (2:2), pp. 285-309. [ Links ]

Bennatan, E.M. (2000). On Time Within Budget. Software Management Practices and Techniques, John Wiley and Sons Inc. Editorial. Third Edition, U.S.A. [ Links ]

Boon, O.; C. Wilkin; B. Corbitt (2003). Towards a Broader Bases IS Success Model - Integrating Critical Success Factors and the DeLone and McLean’s IS Success Model. SWP 2003/10, Faculty of Business and Law. University Deakin. Australia. [ Links ]

Brynjolfsson, E.; L. Hitt (1995). The Productive Keep Producing - Successful Companies Support Good Business Plans with Right Information Technologies. Information Week. Pág. 18. [ Links ]

Cepeda, C.G.; J.L. Roldán (2004). Aplicando en la Práctica la Técnica PLS en la Administración de Empresas. Presentado en ACEDE 2004. Murcia, España, Septiembre 19-21. [ Links ]

Chin, W.W. (1998). Issues and Opinion on Structural Equation Modeling. MIS Quarterly (22:1), pp. vii-xvi [ Links ]

Chow, T.S. (1985). Software Quality: Definitions, Measurements and Applications. Tutorial on Software Quality Assurance: A Practical Approach. Silver Spring, MD: IEEE Computer Society Press, pp. 13-20. [ Links ]

Connolly, T.; B. Thorn (1987). Predecisional Information Acquisition: Effects of Task Variables on Suboptimal Search Strategies. Organizational Behavior and Human Decision Processes (39:3), pp. 397-417. [ Links ]

Cornella, A. (1994). Los Recursos de Información. Ventaja Competitiva de las Empresas, McGraw-Hill Editorial, Madrid, España. [ Links ]

Dalcher, D. (2004). Stories and Histories: Case Study Research (and Beyond) in Information Systems Failures. En: Michael E. Whitman and Amy B. Woszczynski (Eds.), The Handbook of Information Systems Research, Idea Group Publishing. Hershey, PA. U.S.A., pp. 305-322. [ Links ]

Davis, F.D. (1989). Perceived Usefulness, Perceived Ease of Use, and User Acceptance of Information Technology. MIS Quarterly (13:3), pp. 319-340. [ Links ]

DeLone, W.H.; E.R. McLean (1992). Information Systems Research: The Quest for the Dependent Variable. Information Systems Research (3:1), pp. 60-95. [ Links ]

DeLone, W.H.; E.R. McLean (2003). DeLone and McLean Model of Information Systems Success: A Ten-Year Update. Journal of Management Information Systems (19:4), pp. 9-30. [ Links ]

Dyba, T. (2000). An Instrument for Measuring the Key Factors of Success in Software Process Improvement. Empirical Software Engineering (5:4), pp. 357-390. [ Links ]

Edberg, D.T.; B.J. Bowman (1996). User-Development Applications: An Empirical Study of Application Quality and Developer Productivity. Journal of Management Information Systems (13:1), pp. 167-185. [ Links ]

English, L.P. (1998). The High Costs of Low-Quality Data. DM Review. [consultado: 09, 03, 2005], < http://www.dmreview.com/article_sub.cfm?articleId=771 >. [ Links ]

English, L.P. (2001). Information Quality Management: The Next Frontier. American Society for Quality’s 55th Annual Quality Conference Proceedings, Milwaukee, U.S.A, pp. 529-533. [ Links ]

Fornell, C.; D.F. Larcker (1981). Evaluating Structural Equation Models with Unobservable Variables and Measurement Error. Journal of Marketing Research (18:1), pp. 39-50. [ Links ]

Fraser, S.; G. Salter (1995). A Motivational View of Information Systems Success: A Reinterpretation of DeLone & McLean’s Model. Working Paper. Department of Accounting and Finance. The University of Melbourne. Australia. [ Links ]

Gatian, A.G. (1994). Is User Satisfaction a Valid measure of Systems Effectiveness?. Information & Management (26:3), pp. 119-131. [ Links ]

Goodhue, D.L.; R.L. Thompson (1995). Task-Technology Fit and Individual Performance. MIS Quarterly (19:2), pp. 213-236. [ Links ]

Guimaraes, T.; M. Igbaria (1997). Client/Server System Success: Exploring the Human Side. Decision Sciences (28:4), pp. 851-876. [ Links ]

Hamill, J.T.; R.F. Deckro; J.M. Kloeber Jr. (2005). Evaluating Information Assurance Strategies. Decision Support Systems (39:3), pp. 463-484. [ Links ]

Harter, D.E.; M.S. Krishnan; S.A. Slaughter (2000). Effects of Process Maturity on Quality, Cycle Time, and Effort in Software Product Development. Management Science (46:4), pp. 451-466. [ Links ]

Hartwick, J.; H. Barki (1994). Explaining the Role of User Participation in Information Systems Use. Management Science (40:4), pp. 440-465. [ Links ]

Herndon, M.A.; R. Moore; M. Phillips; J. Walker and L. West (2003). Interpreting Capability Maturity Model Integration (CMMI) for Service Organizations-a Systems Engineering and Integration Services Example. Software Engineering Process Management. Software Engineering Institute. [ Links ]

Huber, G.P.; R.R. McDaniel (1989). The Decision-Making Paradigm of Organizational Design. Management Science (32:5), pp. 572-589. [ Links ]

Hull, M.E.C.; P.S. Taylor; J.R.P. Hanna; R.J. Millar (2002). Software Development Processes-An Assessment. Information and Software Technology (44:1), pp. 1-12. [ Links ]

Igbaria, M.; T. Guimaraes; G.B. Davis (1995). Testing the Determinants of Microcomputer Usage via a Structural Equation Model. Journal of Management Information Systems (11:4), pp. 87-114. [ Links ]

Ives, B.; M.H. Olson; J.J. Baroudi (1983). The Measurement of User Information Satisfaction. Communications of the ACM (26:10), pp. 785-793. [ Links ]

Jiang, J.J.; G. Klein; J. Roan; J.T.M. Lin (2001). IS Service Performance: Self-Perceptions and User Perceptions. Information & Management (38:8), pp. 499-506. [ Links ]

Juran, J.M.; A.B. Godfrey (1999). Juran’s Quality Handbook, 5th Edition. McGraw Hill, New York, U.S.A. [ Links ]

Kahn, B.K.; D.M. Strong; R.Y. Wang (2002). Information Quality Benchmarks: Product and Service Performance. Communications of the ACM (45:4), pp. 184-192. [ Links ]

Karat J.; C.M. Karat (2003). The Evolution of User-Centred Focus in the Human-Computer Interaction Field. IBM Systems Journal (42:2), pp. 532-421. [ Links ]

Kettinger, W.J.; C. Lee (1995). Exploring a ‘Gap’ Model of Information Services Quality. Information Resources Management Journal (8:3), pp. 5-16. [ Links ]

Koontz, H.; H. Weihrich (2000). Administración. Una Perspectiva Global, McGraw Hill Editorial, 11th Edición, México. [ Links ]

Leidner, D.E.; J.J. Elam (1994). Executive Information Systems: Their Impact on Executive Decision Making. Journal of Management Information Systems (10:3), pp. 139-155. [ Links ]

Leidner, D.E.; S. Carlsson; J.J. Elam; M. Corrales (1999). Mexican and Swedish Managers’ Perceptions of the Impact of EIS on Organizational Intelligence, Decision Making, and Structure. Decision Science (30:3), pp. 633-658. [ Links ]

Markus, M.L.; M. Keil (1994). If We Build It, They Will Come: Designing Information Systems that People Want to Use. Sloan Management Review (35:4), pp. 11-25. [ Links ]

Mathieson, K.; W.W. Chin (2001). Extending the Technology Acceptance Model: The Influence of Perceives User Resources. The DATA BASE for Advances in Information Systems (32:3), pp. 86-112. [ Links ]

Miller, J.; B.A. Doyle (1987). Measuring the Effectiveness of Computer-Based Information Systems in the Financial Services Sector. MIS Quarterly (11:1), pp. 107-124. [ Links ]

O’Reilly, C.A. III (1982). Variations in Decision Makers’ Use of Information Sources: The Impact of Quality and Accessibility of Information. Academy of Management Journal (25:4), pp. 756-771. [ Links ]

Osterweil, L.; L.A. Clarke; R.A. DeMillo; S.I. Feldman; B. McKeeman; E.F. Miller; J. Salasin (1996). Strategic Directions in Software Quality. ACM Computing Survey (28:4), pp. 738-750. [ Links ]

Parasuraman, A.; V.A. Zeithaml; L.L. Berry (1985). A Conceptual Model of Service Quality and Its Implications for Future Research. Journal of Marketing (49:4), pp. 41-50. [ Links ]

Pitt, L.F.; R.T. Watson; C.B Kavan (1995). Service Quality: A Measure of Information Systems Effectiveness. MIS Quarterly (19:2), pp. 173-188. [ Links ]

Rai, A.; H. Al-Hindi (2000). The Effects of Development Process Modeling and Task Uncertainly on Development Quality Performance. Information & Management (37:6), pp. 335-346. [ Links ]

Rai, A.; S.S. Lang; R. Welker (2002). Assessing the Validity of IS Success Models: An Empirical Test and Theoretical Analysis. Information Systems Research (13:1), pp. 50-69. [ Links ]

Rainer, K.R.; H.J. Watson (1995). The Keys to Executive Information System Success. Journal of Management Information Systems (12:2), pp. 83-98. [ Links ]

Rao, C.P.; M.M. Kelkar (1997). Relative Impact of Performance and Importance Rating on Measurement of Service Quality. Services Marketing Quarterly (15:2), pp. 69-86. [ Links ]

Reeves, C.A.; D.E. Bednar (1994). Defining Quality: Alternatives and Implications. Academy of Management Review (19:3), pp. 419-445. [ Links ]

Seddon, P.B. (1997). A Respecification and Extension of the DeLone and McLean Model of IS Success. Information System Research (8:3), pp. 240-253. [ Links ]

Seddon, P.B.; S. Staples; R. Patnayakuni; M. Bowtell (1999). Dimensions of Information Systems Success. Communications of the Association for Information Systems (Vol. 2, Article 20). [ Links ]

Segars, A.H.; V. Grover (1993). Re-Examining Perceived Ease of Use and Usefulness: A Confirmatory Factor Analysis. MIS Quarterly (17:4), pp. 517-525. [ Links ]

Shin, B. (2003). An Exploratory Investigation of System Success Factors in Data Warehousing. Journal of the Association for Information Systems (4:6), pp. 141-170. [ Links ]

Srinivasan, A. (1985). Alternative Measures of System Effectiveness: Associations and Implications. MIS Quarterly (9:3), pp. 243-253. [ Links ]

Standish Group (2001). Extreme Chaos. The Standish Group International, Inc., [consultado: 15, 03, 2005], <http://standishgroup.com//sample_research/PDFpages/extreme_chaos.pdf >. [ Links ]

Straub, D.; C. Carlson (1989). Validating Instrument in MIS Research. MIS Quarterly (13:2), pp. 147-169. [ Links ]

Straub, D.; M. Limayem; E. Karahanna-Evaristo (1995). Measuring System Usage: Implications for IS Theory Testing. Management Science (41:8), pp. 1328-1342. [ Links ]

Teng, J.T.C.; K.J. Calhoun (1996). Organizational Computing as a Facilitator for Operational and Managerial Decision Making: An Exploratory Study of Managers’ Perceptions. Decision Sciences (27:4), pp. 673-710. [ Links ]

Tetzeli, R. (1994). Surviving Information Overload. Fortune. July 11, pp. 60-64. [ Links ]

Tzu-Chuan, C.; R.G. Dyson; PL. Powell (1998). An Empirical Study of the Impact of Information Technology Intensity in Strategic Investment Decisions. Technology Analysis & Strategic Management (10:3), pp. 325-339. [ Links ]

Watson, R.T.; L.F. Pitt; C.B. Kavan (1998). Measuring Information Systems: Lessons from Two Longitudinal Case Studies. MIS Quarterly (22:1), pp. 61-79. [ Links ]

Wilkin, C.; B. Hewett; R. Carr (2004). Exploring the Role of Expectations in Defining Stakeholders’ Evaluations of IS Quality. En: Wim van Grembergen (Ed.). Information Systems Evaluation Management, pp. 231-243. IRM Press. London, United Kingdom. [ Links ]

WITSA (World Information Technology and Services Alliance (2000). Digital Planet 2000: The Global Information Economy. Bases on Research Conducted by International Data Corporation (IDC), Published by WITSA. [ Links ]

Wixom, B.H.; H.J. Watson (2001). An Empirical Investigation of the Factors Affecting Data Warehousing Success. MIS Quarterly (25:1), pp. 17-41. [ Links ]

Yuthas, K.; S.T. Young (1998). Material Matters: Assessing the Effectiveness of Materials Management IS. Information & Management (33:3), pp. 115-124. [ Links ]

Recibido: 31 de Agosto de 2005; Aprobado: 14 de Septiembre de 2005

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons