Artículos científicos

Evaluación de usabilidad de sitios web de bibliotecas de universidades públicas chilenas a partir del método SIRIUS

Usability evaluation of chilean academic public library web sites using the SIRIUS method

Leslie Saldías Kiefer
Círculo de Periodistas de Santiago, Chile
Danilo Reyes Lillo
Universidad Viña del Mar, Chile

Evaluación de usabilidad de sitios web de bibliotecas de universidades públicas chilenas a partir del método SIRIUS

Revista e-Ciencias de la Información, vol. 11, núm. 1, pp. 70-90, 2021

Universidad de Costa Rica

Recepción: 20 Abril 2020

Corregido: 23 Agosto 2020

Aprobación: 03 Septiembre 2020

Resumen: Este artículo presenta los resultados de una evaluación heurística de usabilidad aplicada a 17 sitios web de bibliotecas de universidades públicas chilenas, a través del método SIRIUS, “Sistema de Evaluación de la Usabilidad Web Orientado al Usuario y Basado en la Determinación de Tareas Críticas”. Para la recolección de datos se utilizó la pauta fija de SIRIUS que contiene 10 heurísticas subdivididas en un total de 83 sub-heurísticas evaluadas por cinco personas expertas con conocimiento en sitios web de bibliotecas y usabilidad. Los resultados indican que las bibliotecas universitarias mejor evaluadas presentan buenos mecanismos de rotulado, layout (diseño) y facilidad de interacción, mientras que, en su conjunto, los sitios web carecen de ayudas de navegación para las personas usuarias. Finalmente, se concluye que la evaluación heurística es un método válido, rápido, fácil y aplicable en sitios web de bibliotecas universitarias, siempre y cuando se definan adecuadamente las personas expertas y las heurísticas. Asimismo, SIRIUS resulta una herramienta adecuada al contar con una pauta fija que permite obtener evaluaciones con rapidez y facilitar la comparación de sus resultados.

Palabras clave: Arquitectura de la Información, usabilidad, evaluación heurística, sitios web, bibliotecas universitarias chilenas.

Abstract: This article presents the results of a heuristic usability evaluation applied to 17 websites of libraries of public chilean universities, using the SIRIUS method ”System of Web Usability Evaluation, User Oriented and Based on the Determination of Critical Tasks” For data collection, SIRIUS fixed guideline was used, which contains 10 heuristics that are subdivided into a total of 83 sub-heuristics evaluated by 5 experts with knowledge about libraries and usability websites. The results indicate that the best evaluated university libraries have good labeling mechanisms, layout and ease of interaction, while, as a whole, the websites lack navigation aids for their users. Finally, it is concluded that heuristic evaluation is a valid, fast, easy and applicable method in university library websites, as long as experts and heuristics are properly defined. Likewise, SIRIUS is an adequate tool since it has a fixed guideline that allows evaluations to be obtained quickly and to facilitate the comparison of its results.

Keywords: Information Architecture, usability, heuristic evaluation, websites, chilean university libraries.

1. Introducción

El propósito de esta investigación es evaluar la usabilidad de los sitios web de las bibliotecas de Universidades Estatales en Chile, a partir de SIRIUS un modelo heurístico realizado por personas expertas, el cual permite cuantificar y ponderar las tareas críticas señaladas por este mecanismo de inspección.

Actualmente, existe una cantidad enorme de sitios que ofrecen los más variados productos y servicios a la persona usuaria, convirtiéndolos en el centro de acceso y consumo de contenidos para distintos tipos de organizaciones, situación que resulta fundamental en el caso de las bibliotecas.

Sin embargo, los sitios web no siempre son fáciles de utilizar para una persona usuaria promedio. En este escenario, alcanzar niveles altos en la facilidad de uso se transforma en una necesidad, dado el poder que tienen las usuarias en entornos digitales, ya que pueden descartar un producto o servicio por otro con un solo “click” (Nielsen, 2000), lo cual no es ajeno al mundo bibliotecario.

En el contexto universitario, la biblioteca se transforma en un actor relevante en los procesos de docencia y aprendizaje, así como también en los procesos de investigación y publicación. Por este motivo, resulta de gran relevancia comprobar que el sitio web de la biblioteca y sus tecnologías implicadas cumplan con la función de dar acceso a los recursos de una manera intuitiva para las personas usuarias, ya que es el principal insumo para acceder tanto a la colección física, como a los recursos digitales o a la información institucional. Lo anterior toma especial relevancia considerando que un servicio de biblioteca integra múltiples plataformas y servicios de información en línea, lo que aumenta la dificultad para que las personas usuarias asimilen información relevante, motivo por el cual pueden verse desalentados a utilizar la biblioteca como medio de consulta (Bermello Crespo, 2005).

Por ende, la usabilidad, entendida como la propiedad de un producto o servicio que le permite operar intuitivamente en función de la interacción con una usuaria de capacidad o experiencia media o incluso bajo la media (Krug, 2006), para el contexto de las bibliotecas universitarias toma un protagonismo especial, ya que mientras más intuitivos resulten los servicios digitales, mejor experiencia de uso se genera al realizar determinadas tareas (Garret, 2003; Nielsen, 2000).

A pesar de que la usabilidad es un concepto estudiado hace más de 30 años en diversos aspectos (Whiteside, Bennett y Holtzblatt, 1988), no es fácil lograr niveles altos de usabilidad en un producto o servicio (Rubell y Chisnel, 2008), así como tampoco resulta sencillo medir la usabilidad de un producto ya existente (Nielsen, 2000), aún cuando se han desarrollado múltiples métodos, técnicas y pautas de evaluación por diversas personas expertas. En consecuencia, no existen estándares universales consensuados de evaluación para aplicar a un sitio web con la propiedad de una validación absoluta.

2. Evaluación Heurística y método SIRIUS

En relación a los métodos de evaluación, existen variados tipos y desde distintas perspectivas metodológicas, como los test de usuarios, grupos focales, simulación cognitiva, cuestionarios especializados o evaluaciones heurísticas (Bermello Crespo, 2005).

Heurística es una palabra griega que significa “encontrar”, por lo tanto, se define como un principio para encontrar problemas de usabilidad (Nielsen, 1992). La evaluación heurística es un método ampliamente usado, donde un grupo de personas evaluadoras inspecciona una interfaz con base en criterios o heurísticas definidas, verificando si los elementos presentes en la interfaz de la persona usuaria cumplen con ciertos principios de usabilidad vigentes (Fernández Casado, 2018). La evaluación heurística es un método económico y permite detectar un porcentaje relevante de problemas de usabilidad. Sin embargo, este tipo de evaluación puede perder nociones o elementos propios del contexto de evaluación si no se tienen las heurísticas adecuadas, las que debieran resultar altamente significativas desde el punto de vista de la evaluación del producto web (Jiménez, Rusu, Roncagliolo, Inostroza y Rusu, 2011).

Asimismo, se han generado ciertas adaptaciones o variaciones de las evaluaciones heurísticas clásicas, como el método SIRIUS (“Sistema de Evaluación de la Usabilidad Web Orientado al Usuario y Basado en la Determinación de Tareas Críticas”). Se define como un sistema de evaluación de usabilidad web basado en las evaluaciones heurísticas que puede ser aplicado a cualquier interfaz y en cualquier fase del ciclo de vida del desarrollo del producto. SIRIUS permite cuantificar la usabilidad de un sistema y establecer rankings con base en el criterio de usabilidad, realizando una clasificación donde el principal objetivo es adaptar los resultados de la evaluación al contexto del sistema y determinar, para cada tipo de sitio web, las tareas críticas y adecuar el perfil de la persona usuaria al contexto del servicio evaluado (Fernández Casado, 2018).

En cuanto a la evaluación de usabilidad de sitios web de bibliotecas universitarias, diversas investigaciones han aplicado distintos métodos como test de usuarios, “think aloud test” (Kous, Pušnik, Heričko y Polančič, 2020) o check list (lista de verificación) de medición de usabilidad (Halin, Elly y Handoko, 2019). En particular, al hablar sobre evaluación heurística, comúnmente son aplicados criterios generales en las inspecciones realizadas (Muñoz-Egido y Hernández-Pérez, 2016; Travieso Rodríguez, Alonso Arévalo y Vivanco Secilla, 2007). Sin embargo, Muñoz-Egido y Vianello Osti (2017) se refieren al método SIRIUS aplicado a sitios web de bibliotecas universitarias, señalando que permite cuantificar y graduar resultados según la relevancia que se le asigne a cada una de las heurísticas, junto con su capacidad de ponderación para evaluar las tareas críticas para diferentes sitios web.

De esta manera, las principales ventajas de SIRIUS como método de evaluación responden a la estandarización de los resultados debido a su pauta fija que define las heurísticas y las sub-heurísticas de evaluación para sistematizar la recolección de datos, junto con su versatilidad o adaptabilidad para evaluar distintos tipos de sitios web. Sin embargo, es relevante considerar que no es aconsejable tomar una técnica de medición de usabilidad como concluyente por sí misma, sino que se sugiere mezclar distintas técnicas para enriquecer los resultados e identificar holísticamente los problemas de usabilidad en un servicio digital.

Por su lado, considerando que en este momento en Chile no existe una directriz de diseño y evaluación de sitios web de bibliotecas universitarias, y desde 2003 que la Comisión Asesora de Bibliotecas y Documentación (CABID) del Consejo de Rectores de Universidades de Chile (CRUCH) no ha generado un estándar que considere adecuadamente el funcionamiento de los sitios web de bibliotecas, como sí ha sido propuesto en otros países (Corda y Viñas, 2015), la investigación acerca de métodos de evaluación y mejora de la usabilidad toma especial relevancia.

3. Métodos

Luego de la caracterización de la evaluación heurística, se define a SIRIUS como la principal metodología para efectuar la medición a fin de poder obtener resultados de evaluación de usabilidad y compararlos, desde un enfoque cuantitativo. De esta manera, SIRIUS entrega las heurísticas a evaluar, toma en cuenta el tipo de sitio web sobre el que se está trabajando, define las tareas que son críticas de resolver y finalmente proporciona una medida porcentual del sitio web.

2.1 Unidad de análisis y criterios de selección de expertos

Para esta investigación se evaluaron los sitios web de 17 de las 18 bibliotecas de las universidades públicas de Chile[1], ordenadas en la siguiente tabla según su posición a nivel nacional en el ranking Webometrics[2]:

Tabla 1
Lista de Universidades públicas de Chile según ranking Webometrics
UniversidadURL
Universidad de Chile1https://www.uchile.cl/bibliotecas
Universidad de Concepción3http://www.bibliotecas.udec.cl/
Universidad de Santiago de Chile4https://biblioteca.usach.cl/
Universidad de Talca9http://biblioteca.utalca.cl/
Universidad de Valparaíso11https://bibliotecas.uv.cl/
Universidad del Bío-Bío13http://werken.ubiobio.cl/
Universidad de Tarapacá15http://sb.uta.cl/sbuta/
Universidad de la Frontera16http://bibliotecas.ufro.cl/
Universidad de los Lagos18https://biblioteca.ulagos.cl/
Universidad de La Serena19http://www.sibuls.userena.cl/
Universidad de Antofagasta22https://intranetua.uantof.cl/biblioteca/pg/index.php
Universidad de Magallanes28http://www.umag.cl/biblioteca/
Universidad Arturo Prat31http://www.unap.cl/prontus_unap/site/edic/base/port/biblioteca.html
Universidad de Atacama32http://www.biblioteca.uda.cl/
Universidad Tecnológica Metropolitana34https://biblioteca.utem.cl/
Universidad de Playa Ancha36https://www.upla.cl/bibliotecas/
Universidad Metropolitana de Ciencias de la Educación41https://www.umce.cl/index.php/dir-biblioteca-presentacion/direccion-biblioteca-bienvenida
Universidad de O’Higgins41https://www.uoh.cl/#biblioteca
Webometrics, 2020.

Por su parte, el número de personas expertas que realizan la evaluación se define por las recomendaciones de Nielsen y Mack (1994), quienes establecieron que el número ideal es de 3 a 5 evaluadores para obtener resultados satisfactorios, debido a que un número inferior reduce la detección de problemas de usabilidad y un número superior no se justifica en función del costo/beneficio, ya que no contribuye a la eficacia en la aplicación de la técnica. Si bien, algunos autores difieren en el número idóneo de personas en rol de evaluación, dado que algunos sugieren un rango de cinco a ocho criterio experto, la conclusión tiende a ser la misma: la incorporación de más de 10 evaluadores no produce mejores resultados (Phillips, 2018).

En relación al perfil de expertos, se define como principales criterios de inclusión una alta experiencia en trabajo con sitios web, catálogos en línea de bibliotecas y servicios de información digital (ver Tabla 2).

Tabla 2
Perfil de personas expertas
Experiencia
Experto 1Bibliotecaria, más de 10 años de experiencia en diseño de catálogos y bases de datos. Estudios de postgrado en programación y diseño web.
Experto 2Bibliotecario, con más de 15 años de experiencia en bibliotecas universitarias, bases de datos, bibliotecas digitales, ingreso y búsqueda en catálogos.
Experto 3Periodista y diseñador web, con experiencia en diseño de sitios de bibliotecas, diseño y programación de catálogos de bibliotecas.
Experto 4Bibliotecaria, 10 años de experiencia en bibliotecas digitales, archivos, ingreso y búsqueda en catálogos y bases de datos.
Experto 5Bibliotecario, con 15 años de experiencia en bibliotecas y archivos digitales, búsquedas especializadas y diseño de bases de datos.
Elaboración propia, 2019.

2.2 Técnica de recolección de información

2.2.1 Pauta fija de SIRIUS

La recolección de datos se hace a través de una pauta fija que pide calificar cada una de las heurísticas o criterios proporcionados por el sistema SIRIUS. En esta pauta se detallan 10 heurísticas con sus 83 sub-heurísticas respectivas (ver anexo), analizadas detalladamente por cada persona experta en los 17 sitios web de bibliotecas de las universidades públicas de Chile, con el objetivo de calificarlas con una nota o sigla en una planilla proporcionada por el mismo sistema.

Además de la evaluación de cada criterio y su puntaje respectivo, la pauta entrega un sistema para obtener una métrica cuantitativa que va en el rango de 0 - 100 para medir el nivel de usabilidad en determinado sitio web, considerando la tipología del sitio web al momento de realizar ajustes en la medición. De esta manera, el sistema permite establecer una relación de criterios que no se han verificado de forma satisfactoria en el sitio web (Suárez, 2011).

Dado lo anterior, el sistema SIRIUS permite:

Adicionalmente, en este método se pondera el valor del incumplimiento en una heurística de las webs evaluadas en función del tipo de sitio que sea, y a la vez entrega un valor de relevancia que nos indica cuán importante es corregir este problema dentro del sitio web. Para esto, el método SIRIUS divide los sitios en 16 categorías donde pondera las heurísticas según su objetivo (ver Tabla 3).

Tabla 3
Categorías de sitios
Tipos de sitio web según SIRIUS
Administración pública institucionalComercio electrónicoDescargas
Banca electrónicaComunicación / NoticiasEducativo / Formativo
BlogCorporativo / EmpresasPortal de servicios
Entornos colaborativos /WikisForos / ChatsOcio / Entretenimiento
PersonalServicios interactivos Basados en imágenesServicios interactivos No basados en imágenes
Web mail / Correo
Suárez, 2011.

Para este estudio se consideró la categoría “Educativo/Formativo” que se define como “un sitio web cuya finalidad es proporcionar conocimiento al usuario” (Suárez, 2011). La decisión se fundamenta en que una biblioteca universitaria es parte del sitio web de la universidad, diseñada para ser utilizada en un entorno académico formado por estudiantes, docentes, investigadores y personal perteneciente a la institución.

3.2.2. Heurísticas y criterios de evaluación

Para la aplicación de SIRIUS, se entrega una pauta fija a los evaluadores con 83 criterios a evaluar (sub-heurísticas), los que se agrupan en aspectos más generales (heurísticas), que se definen a continuación:

Aspectos generales: elementos relacionados con los objetivos del sitio, el aspecto, coherencia y nivel de actualización de contenidos.

De esta manera, se establecen parámetros que indican el cumplimiento del criterio según quien evalúa. Asimismo, se evalúa el cumplimiento a través de un mecanismo numérico (del 0 al 10) o por medio de una sintaxis que se describe en la Tabla 4:

Tabla 4
valores de evaluación
Valor de EvaluaciónDefinición
NTSNo se cumple en todo el sitio
NEPNo se cumple en los enlaces principales.
NPPNo se cumple en la página principal.
NPINo se cumple en alguna página interior
SSe cumple el criterio
NACriterio no aplicable en el sitio.
Elaboración propia, 2020

Además, el método plantea una forma de ponderar el incumplimiento de los criterios en la métrica de evaluación, y para esto se utilizan dos valores. El primero pondera los criterios indicando cuál es más importante según el tipo de sitio web (en este caso Educativo/Formativo) con cuatro valoraciones: crítico, mayor, medio o moderado. Por su lado, el segundo valor indica la relevancia del aspecto dentro del tipo del sitio web y cuál es la prioridad para solucionar este aspecto, a través de 4 categorías: muy alta, alta, media y baja. (ver Figura 1).

Diagrama de método SIRIUS
Figura 1
Diagrama de método SIRIUS
Elaboración propia, 2019

Finalmente, se hace necesario obtener un valor cuantitativo que refleje el nivel de usabilidad obtenido tras la evaluación heurística de un sitio web. Para lograr lo anterior, se propone una fórmula donde se considera el factor de corrección, que corresponde al valor de ajuste aplicado a cada uno de los criterios evaluados con el fin de obtener diferentes niveles de usabilidad dependiendo de su relevancia en función del tipo de sitio en evaluación. Los valores resultantes al aplicar este factor de corrección debieran llevar a obtener valores de usabilidad comprendidos siempre entre 0 y 100.

El sistema pretende ser adaptable para cada tipo de sitio web, dando importancia no solo a la valoración de cada heurística, como hacen otros sistemas, sino, también, a la ponderación del incumplimiento de los criterios y la relevancia que tiene la resolución de determinado problema de usabilidad para un contexto específico.

4. Resultados

De acuerdo con los resultados de la aplicación de SIRIUS, el promedio de la evaluación de los sitios realizada por las cinco personas expertas fue de 62,82%. Asimismo, el porcentaje promedio más alto lo obtuvo la Universidad de la Frontera con un 70,15% y el porcentaje promedio más bajo lo obtuvo la Universidad de O’Higgins con un 46,99%. De igual manera, 13 de las 17 bibliotecas universitarias, lo que representa el 76,47% de la muestra, obtuvieron porcentajes sobre el 60%, lo que se considera un nivel de usabilidad satisfactorio (ver Tabla 5).

Tabla 5
Ranking de usabilidad de sitios web de bibliotecas universitarias de Chile: promediando la evaluación de los 5 expertos.
RankingUniversidadesPorcentaje final
1Universidad de la Frontera70,15
2Universidad de Talca69,25
3Universidad Tecnológica Metropolitana68,05
4Universidad de Chile67,77
5Universidad de Playa Ancha67,16
6Universidad de los Lagos66,54
7Universidad de Santiago64,62
8Universidad Metropolitana de Ciencias de la Educación64,48
9Universidad de Valparaíso63,92
10Universidad de Tarapacá63,66
11Universidad de Magallanes63,14
12Universidad de Atacama62,97
13Universidad de Antofagasta60,45
14Universidad de la Serena58,02
15Universidad Arturo Prat53,46
16Universidad del Bío-Bío52,12
17Universidad de O’Higgins46,99
Elaboración propia, 2019.

Resulta relevante identificar en detalle los porcentajes de usabilidad entre los distintos expertos que han evaluado los sitios web de bibliotecas universitarias. Si bien los criterios de evaluación son distintos, existiendo una diferencia entre el experto 1, que ha evaluado con la peor media de usabilidad total (54,05%), y el experto 5, que ha calificado con el mejor promedio total (74,53%), los resultados según universidad resultan simétricos de acuerdo a la calificación de los expertos (ver Tabla 6). Por esta razón, es necesario que la evaluación sea realizada por más de un experto para promediar los resultados y observar la tendencia en sus evaluaciones.

Tabla 6
Porcentaje de usabilidad de sitios web de bibliotecas universitarias con detalle por experto, ordenados de mayor a menor.
UniversidadesExperto 1Experto 2Experto 3Experto 4Experto 5
Universidad de la Frontera64,2269,3462,7571,5282,94
Universidad de Talca59,3472,7563,2776,0774,83
Universidad Tecnológica Metropolitana61,4767,6867,7370,9572,44
Universidad de Chile58,2968,4466,5463,8981,71
Universidad de Playa Ancha56,1163,3671,5663,8980,9
Universidad de los Lagos57,7369,2467,5469,1969
Universidad de Santiago67,367,253,8457,9176,85
Universidad Metropolitana de Ciencias de la Educación49,2765,559,6768,6379,34
Universidad de Valparaíso51,5268,6351,5263,8484,08
Universidad de Tarapacá54,0365,1758,4868,0672,54
Universidad de Magallanes54,6966,7355,8866,3572,04
Universidad de Atacama54,0865,761,4770,4363,15
Universidad de Antofagasta53,8952,6564,7455,4375,55
Universidad de la Serena49,3450,0544,2767,4279
Universidad Arturo Prat52,5645,8335,3661,6171,94
Universidad del Bío-Bío43,6548,8237,6864,0866,37
Universidad de O’Higgins39,2431,7536,0763,664,31
Elaboración propia, 2019

El análisis de las heurísticas resulta relevante para detectar las principales mejoras de usabilidad que pueden tener los sitios web de bibliotecas universitarias. Si vemos en detalle el porcentaje promedio de evaluación según heurística, podemos identificar que el “rotulado” es el aspecto mejor evaluado con un porcentaje promedio del 83,42%, seguido por la “entendibilidad y facilidad de la interacción” con un porcentaje promedio del 77,95%. A su vez, los aspectos peor evaluados fueron el “control y retroalimentación” con un 47,38% y la heurística “ayuda”, que presenta un brusco descenso en la evaluación con un 23,76% de promedio. Cabe señalar que ambos criterios son los únicos que están por debajo del 60% en todos los promedios de evaluación (ver Figura 2).

Promedios por heurística, considerando los resultados de las evaluaciones de las cinco personas expertas.
Figura 2
Promedios por heurística, considerando los resultados de las evaluaciones de las cinco personas expertas.
Elaboración propia, 2019

Al visualizar los resultados del porcentaje de cada heurística según el criterio de cada persona experta (ver Figura 3), se puede identificar que existe una relación simétrica en las evaluaciones de cada heurística. De igual modo, destaca el promedio de evaluación del aspecto “rotulado”, ya que cuatro de las cinco personas expertas evaluaron esta heurística como la mejor de todas, salvo la experto tres que evaluó como mejor aspecto el “layout o diseño de página”. Asimismo, a modo genérico las dos mejores heurísticas que le siguen a “rotulado”, “layout de la página” y “entendibilidad y facilidad de la interacción”.

Asimismo, todas las personas evaluadoras coinciden en que la heurística “ayuda” es la peor evaluada para los sitios web de bibliotecas universitarias, lo que indica que los distintos sitios web no ofrecen demasiada ayuda en el proceso de navegación.

Gráfico de promedios por cada heurística evaluada, identificando los promedios obtenidos por las evaluaciones de las cinco personas expertas.
Figura 3
Gráfico de promedios por cada heurística evaluada, identificando los promedios obtenidos por las evaluaciones de las cinco personas expertas.
Elaboración propia, 2019

Cabe señalar que la heurística “elementos multimedia” presente en el método SIRIUS se evaluó como NA (no aplica), ya que no todas las páginas contaban con imágenes, videos o sonidos a evaluar. Por lo tanto, este aspecto no se consideró, debido a que quienes evaluaron no lo encontraron aplicable al tipo de sitio que se estaba evaluando.

Por su parte, de acuerdo al análisis y a la identificación de la media de porcentajes más alta (ver Tabla 5), los sitios web de bibliotecas de la Universidad de la Frontera (ver Figura 4), la Universidad de Talca, la Universidad Tecnológica Metropolitana y la Universidad de Chile tienen los mejores indicadores de usabilidad.

Sitio web de la Biblioteca de la Universidad de la Frontera
Figura 4
Sitio web de la Biblioteca de la Universidad de la Frontera
http://www.bibliotecas.ufro.cl/

Al referirnos a los sitios con la calificación más baja, situados en un rango inferior al 60%, podemos encontrar a la Universidad de O’Higgins[3] (46,99%), la Universidad del Bío-Bío (52,12%), la Universidad Arturo Prat (53,46%) y la Universidad de la Serena (58,02%). En estos casos, es preciso considerar elementos como el poco tiempo en funcionamiento y desarrollo que lleva la biblioteca de la Universidad de O’Higgins (ver figura 5).

Sitio web de la Biblioteca de la Universidad de O’Higgins
Figura 5
Sitio web de la Biblioteca de la Universidad de O’Higgins
https://www.uoh.cl/#biblioteca

5. Discusión

A raíz del análisis previamente expuesto, es posible observar que en los sitios mejor evaluados se ofrece una gran cantidad de servicios como reservas de libros, revistas, reserva de computadores o salas, préstamos de materiales, bases de datos, bibliotecas digitales, ediciones de la universidad, entre otros, presentando el acceso a estos servicios de manera esquemática y bien rotulada.

Por su parte, aunque la Universidad de Chile y la Universidad de Talca están en los primeros lugares del ranking Webometrics a nivel nacional, no es posible establecer una relación directa entre la ubicación de la universidad en este ranking y el nivel de usabilidad del sitio web de su biblioteca según la evaluación arrojada por SIRIUS.

Asimismo, las bibliotecas universitarias situadas en la medianía del ranking, desde la Universidad de Santiago a la Universidad de Antofagasta, que obtuvieron entre un 65% y un 60% en la evaluación general, se distingue una particular asimetría entre los porcentajes que cada evaluador otorgó. Por ejemplo, en el caso de la Universidad de Valparaíso se observa una diferencia importante en las evaluaciones, ya que el experto 5 la evalúa con el porcentaje más alto otorgado por él (84,08%), mientras que la experta 1 y el 3 le otorgan un 51,52%. Lo mismo ocurre con la Universidad Metropolitana de Ciencias de la Educación, que fue evaluada por el experto 5 con un 79,34% y por la 4 con un 68,63%, mientras que el experto 1 le otorgó un porcentaje de 49,2%.

Por su parte, según la calificación de las personas que evaluaron, se demuestra que hay heurísticas que no fueron encontradas dentro del sitio y, por lo tanto, se evalúan como inexistentes, mientras que otros evaluadores sí las hallaron. En este caso, se identifica un problema de usabilidad, ya que no encontrar un aspecto dentro de la página es equivalente a que no exista, y para estos problemas se recomienda mejorar la estructura o reubicar contenidos para darle mayor visibilidad.

Al referirnos a las evaluaciones más bajas, el caso más atípico se muestra con la Universidad de La Serena, donde el experto 5 le entrega un 79% y la experta 4 un 67%, mientras la experta 1 y el 3 lo evalúan con un 49,34% y 44,27%. Esto muestra que no debemos guiarnos únicamente por el valor numérico, sino también es necesario analizar el detalle de las evaluaciones para justificar estas diferencias de criterio, compararlas en todas sus variables y tener un feedback con los expertos.

Si nos guiamos por las heurísticas mejor evaluadas y sus respectivas sub-heuríticas podemos señalar que el “rotulado”, es decir, la claridad y permanencia en etiquetas, títulos y URLs es la característica más destacada en los sitios web de bibliotecas universitarias de forma coincidente por los expertos.

Otras características destacadas son el “layout de la página”, ya que los sitios web presentan claridad en la interfaz, su espacio visual, claridad visual del texto y respetan ciertos principios del diseño (Fernández Casado, 2018), y la heurística de “entendibilidad y facilidad de interacción”, porque las personas expertas evalúan de forma positiva las distintas sub-heurísticas señalando que el lenguaje es claro, los párrafos se encuentran bien definidos, las metáforas son reconocibles, los menús son coherentes y están ordenados de manera lógica. Este aspecto es uno de los más relevantes, pues como dice su nombre tiene que ver con la interacción de la persona usuaria con el sitio web.

Por su parte, la heurística de “búsqueda” es considerada una de las más importantes para un sitio web de biblioteca, ya que el catálogo o el descubridor es el acceso a todos los recursos de la biblioteca, por lo tanto, se debe poner énfasis en su correcto funcionamiento y en la facilidad con la que lo pueda utilizar una persona usuaria (Ávila-García, Ortíz-Repiso y Rodríguez-Mateos, 2015). En este aspecto se evalúan sub-heurísticas que se refieren a la accesibilidad del buscador, su claridad, que posea un sistema fácil de usar, que permita la búsqueda avanzada, que muestre los resultados de forma clara y que ofrezca herramientas de ayuda a la persona usuaria (en caso de no poder obtener resultados). De este modo, las bibliotecas universitarias chilenas están evaluadas con un 71,53% en el ámbito de la búsqueda, lo que se reconoce como un resultado satisfactorio.

Finalmente, la heurística “ayuda” ha sido mal evaluada de forma consensuada. En términos concretos, este aspecto se refiere a los elementos relacionados con la ayuda ofrecida a la persona cuando este realiza la navegación durante el sitio (Súarez, 2011). Por lo tanto, quienes evalúan indican que las secciones de ayuda como “preguntas frecuentes” o formas de contacto no existen o son poco visibles, junto con no disponer de otros instrumentos de ayuda en el uso del sitio web.

6. Consideraciones finales

5.1 Sobre la evaluación heurística de expertos

La evaluación heurística por expertos es una de las mejores formas de encontrar problemas de usabilidad por sus bajos costos, la facilidad de su aplicación y la inmediatez de sus resultados. Una de las dificultades que presenta es encontrar personas expertas adecuadas para realizarla, que tengan la experiencia adecuada, la dedicación y cantidad de tiempo suficiente para indagar sobre cada heurística dentro de los sitios web.

Otra dificultad identificable es definir las heurísticas que se van a utilizar y, si estos criterios se encuentran previamente definidos, el problema radica en la forma de entender cada heurística para las personas expertas. Solamente de este modo se puede asegurar que todos las expertas evalúen con los mismos criterios.

5.2 Sobre SIRIUS

Resulta una herramienta útil para evaluar la usabilidad de un sitio web, de una forma estructurada, que permite comparar resultados finales de manera clara. Asimismo, resulta favorecedor que las heurísticas y sub-heurísticas se encuentren predefinidas como una forma de tener una pauta fija previamente desarrollada y probada sin necesidad de crearlas y perder tiempo en ese proceso.

Permite un trabajo transparente por parte de las personas expertas, porque al responder la pauta fija, en cada una de las sub-heurísticas, lo hacen sin influir en los resultados y el porcentaje final de usabilidad, por lo que resulta difícil que manipulen la evaluación final.

En contraparte, el sistema de pauta fija impide a las expertas ahondar en nuevos problemas de usabilidad identificados en el proceso o profundizar en el por qué existe un problema de usabilidad, sugiriendo cambios inmediatos para mejorarlos. Además, la pauta resulta muy extensa, considerando 83 criterios y distintos formatos de evaluación (siglas y números). Por este motivo, es indispensable una correcta capacitación de los evaluadores y una aplicación de la pauta en las condiciones adecuadas.

7. Sugerencias

Se sugiere complementar la evaluación del método SIRIUS con un estudio más abierto o flexible, que permita encontrar otros problemas de usabilidad que no estén reflejados en las heurísticas, o un sistema que permita hacer indicaciones específicas para generar mejoras en el sitio web, sobre todo si el estudio se hace desde dentro de la universidad o la biblioteca con el objetivo de generar mejoras en la interfaz. A modo complementario, también resulta conveniente compartir resultados entre las personas evaluadoras para establecer con mayor claridad los problemas de usabilidad que se repiten o son más críticos. En todo caso, este feedback de evaluadores debe realizarse una vez terminado el proceso de evaluación.

Para trabajos futuros, se propone desarrollar heurísticas propias del contexto de las bibliotecas y que le den mayor relevancia o ponderación al criterio de búsqueda, funcionamiento del catálogo o descubridor, servicios de reserva en línea, interoperabilidad de sus bases de datos, sistema de autenticación, entre otros criterios. Lo anterior supone un proceso de selección y validación de nuevas heurísticas, lo que constituye otro tipo de investigación.

Finalmente, el método SIRIUS resulta recomendable para la evaluación de usabilidad de sitios web de bibliotecas universitarias, porque es un método de evaluación validado, que permite obtener resultados con rapidez, de bajo costo y aplicable en distintas etapas del desarrollo del sitio web.

7 Referencias

Ávila-García, L., Ortiz-Repiso, V. & Rodríguez-Mateos, D. (2015). Herramientas de descubrimiento: ¿una ventanilla única? Revista Española de Documentación Científica, 38(1). DOI: http://dx.doi.org/10.3989/redc.2015.1.1178

Bermello Crespo, L. (2005). Los estudios de usabilidad en sitios webs de bibliotecas universitarias. Ciencias de la Información, 36(2), 31-52. Recuperado de https://www.redalyc.org/pdf/1814/181417874002.pdf

Corda, M. C., y Viñas, M. (2015) Modelo de evaluación para sitios web de bibliotecas universitarias. Informatio, 20(2), 96-119. Recuperado de http://www.memoria.fahce.unlp.edu.ar/art_revistas/pr.7217/pr.7217.pdf

Fernández Casado, P. (2018). Usabilidad web. Teoría y uso. Madrid, España: Ra-Ma.

Garrett, J. J. (2010). The elements of user experience: User-centered design for the web and beyond. Berkeley, California: New Riders.

Halim, F., Elly & Handoko, H. (2019). Usability evaluation for digital library: A case study of library websites, Mikroskil. Fourth International Conference on Informatics and Computing 2019. Institute of Electrical and Electronics Engineers, Semanarang, Indonesia. (pp. 1-6). DOI: http://doi.org/10.1109/ICIC47613.2019.8985768

Jiménez, C., Rusu, C., Roncagliolo, S., Inostroza, R. & Rusu, V. (2012). Evaluating a methodology to establish usability heuristics. 31st International Conference of the Chilean Computer Science Society. SCCC, Valparaiso, Chile. (pp. 51-59). DOI: https://doi.org/10.1109/SCCC.2012.14

Kous, K., Pušnik, M., Heričko, M. & Polančič, G. (2020). Usability evaluation of a library website with different end user groups. Journal of Librarianship and Informatio n Science, 52(1), 75-90. DOI: https://doi.org/10.1177/0961000618773133

Krug, S. (2015). No me hagas pensar. Madrid, España: Grupo Anaya Publicaciones Generales.

Muñoz-Egido, D. & Vianello Osti, M. (2017). Evaluación de usabilidad de los portales web de las bibliotecas universitarias españolas a partir de un modelo heurístico cognitivo- emocional. Revista Española de Documentación Científica , 40(1). DOI: https://doi.org/10.3989/redc.2017.1.1379

Muñoz-Egido, D. & Hernández-Pérez, T. (2016). Evaluación de la usabilidad en catálogos centrados en el usuario: una propuesta basada en heurísticas. BiD: Textos Universitaris de Biblioteconomia i Documentació, diciembre(37). Recuperado de http://bid.ub.edu/es/37/munoz.htm

Nielsen, J. (2000). Usabilidad. Diseño de sitios web. Madrid, España: Alhambra Editorial.

Nielsen, J. (1992). Finding usability problems through heuristic evaluation. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems. Association for Computing Machinery, New York, USA. (pp.373-380). DOI: https://doi.org/10.1145/142750.142834

Rubin, J. & Chisnell, D. (2008). Handbook of usability testing: How to plan, design, and conduct effective tests (2nd Ed.). Indianapolis, Estados Unidos: Wiley.

Philips, M. (2018). Experience is everything-The ultimate ux guide. Medium. Recuperado de https://uxplanet.org/experience-is-everything-the-ultimate-ux-guide-c3a12ea33715

Suárez, M. (2011). SIRIUS: Sistema de evaluación de la usabilidad web orientado al usuario y basados en la determinación de tareas críticas (Tesis Doctoral). Universidad de Oviedo, Oviedo, España

Travieso Rodríguez, C., Alonso Arévalo, J. & Vivancos Secilla, J. M. (2007). Usabilidad de los catálogos de las bibliotecas universitarias: propuesta metodológica de evaluación. ACIMED, 16(2). Recuperado de http://eprints.rclis.org/10374/

Webometrics (2020). Ranking Web of Universities - Chile. Recuperado el 13 de agosto de 2020 desde https://www.webometrics.info/en/latin_america/chile

Whiteside, J., Bennett, J. y Holtzblatt, K. (1988). Usability engineering: our experience and evolution. En Helander, M. (Ed.), Handbook of human- computer interaction (pp.791-817). Amsterdam, North-Holland: Elsevier.

Notas

[1] La Universidad de Aysén queda fuera del estudio, ya que el sitio web de la biblioteca no estaba disponible en el momento de la evaluación.
[2] Ranking de universidades chilenas disponible en https://www.webometrics.info/en/latin_america/chile
[3] La Universidad de O’Higgins junto a su respectiva biblioteca han sido creadas recientemente, fundadas en el año 2015 y operativas desde marzo de 2017, por lo que llevan escaso tiempo en actividad.
HTML generado a partir de XML-JATS4R por