viernes, 21 de mayo de 2010

Problemas y precauciones de los SIGB de código abierto: el ejemplo de Koha

No sé mucho de informática. Es más, realmente sé muy poco, creo que como la mayoría de profesionales del mundo bibliotecario. Pero no es algo de lo que me sienta orgulloso. Nos guste más o menos, el mundo está inundado por la informática y resistirse a ello es una especie de anacoretismo del siglo XXI ausente de sentido.

No creo que me pase diciendo que tener conocimientos de informática y, concretamente de bases de datos, se está convirtiendo en algo inexcusable. Sólo basta con ver la literatura científica que se está produciendo en el ámbito de las ciencias de la información (a mi entender, término más amplio y correcto que Biblioteconomía). Considero que no sólo basta con tener conocimientos iniciales de lógica y de informática. No creo que deba estar muy lejos el día en que más de uno de nosotr@s esté picando códigos. De lo contrario, dentro de una década nos estaremos quejando de que los informáticos son “intrusos” en el mundo bibliotecario (si no lo son ya).

¿Y todo este exordio a qué viene? Tiene su razón de ser. Imagino que muchos conoceréis el SIGB (Sistema Integrado de Gestión Bibliotecaria) de código abierto KOHA. Se trata de uno de los proyectos más exitosos. Sin embargo, actualmente no es segura su continuidad.

Su historia se remonta a 1999. La empresa neozelandesa de comunicaciones Katipo, encabezada por el desarrollador Chris Cormack, fue contratada por la Fundación de la Horowhenua Library para realizar un SIGB y para liberar el código de éste bajo una licencia de código abierto. El año 2000 se hizo pública la primera versión. El proyecto Koha fue creciendo en los años sucesivos, y surgieron varias empresas dedicadas a ofrecer soporte y servicios de personalización a Koha (desde el seguimiento de las adquisiciones hasta la integración con los sistemas de catalogación de otras bibliotecas).

En 2005, uno de los desarrolladores de Koha, Ferraro Josué, que a su vez era propietario de una de esas empresas de soporte, concretamente Liblime, adquiere los activos de Katipo en Koha, incluidos los derechos de autor sobre el código fuente Koha. Además se hace cargo del sitio web koha.org. Posteriormente, la vida siguió igual, con Liblime participando en el desarrollo de Koha, de la misma manera que otros negocios, personas y bibliotecas lo habían hecho hasta entonces.
Los problemas comienzan cuando Liblime (propiedad de Ferraro Josué) anuncia a mediados de 2009 que ofrecerá a sus clientes una versión de Koha construido a partir de una git privada, en lugar del código fuente público gestionado por la comunidad de desarrolladores. La mayoría de ellos consideran que con este anuncio Liblime se salía del proyecto Koha. Ferraro Josué afirmó que esto no era así. Y dio diferentes razones para mantener un código base independiente: la necesidad de cumplir con los plazos de las cargas de trabajo, la falta de un control de calidad para las contribuciones de la comunidad, y la confidencialidad de los datos de los clientes. Pero Ferraro dijo seguir comprometido con el movimiento de código abierto y que Liblime publicaría sus aportaciones a Koha.
Sin embargo, Liblime no ha publicado sus aportaciones desde junio de 2009 y el código fuente de Liblime sigue inaccesible para el público.

Ante estas circunstancias, la comunidad de desarrolladores temió por el futuro del proyecto y creó un nuevo dominio, Koha-community.org. Siguieron desarrollando Koha con una versión 3.2, paralela al desarrollo de Liblime.

Las desavenencias parecía que iban a salvarse cuando la empresa Progressive Technology Federal Systems anunció a comienzos de 2010 que iba a adquirir Liblime, y dijo que liberaría el código. Pero al poco tiempo aparecieron conflictos sobre la ubicación del repositorio del código fuente y algo más tarde Progressive Technology afirmo que su nueva versión era superior a la de la comunidad.

Como afirma Nathan Willis, Koha no es el primer proyecto de código abierto que pasa por el problema de la división de parte de la comunidad. Y nos explica las claves de esta problemática.
Como dice, no hay manera de impedir que personas o empresas que han colaborado en un proyecto de código abierto sean hostiles. Pero una de las claves era la excesiva vulnerabilidad de Koha al comportamiento de Liblime. Dicha debilidad se sustanciaba en:

-Por un lado, controlaba y gestionaba el sitio web de la comunidad, koha.org.
-Por otro lado, al adquirir los activos de Katipo, Liblime creía que tenía derecho a crear un código cerrado propietario de Koha, incluidos los derechos de autor. Nadie de la comunidad se preocupó de solucionar las cuestiones legales para evitar estos problemas. Se trata de algo que lleva mucho tiempo y que es costoso económicamente. La consecuencia de ello es que el proyecto Koha corre serio peligro.

Para que no ocurra lo mismo en otros proyectos, Roy Tennant nos da algunas claves.

-Tiene que haber una comunidad comprometida para que el código fuente siga vivo.
-Ha de establecerse unos objetivos claros para la integración de las mejoras y la corrección de los errores. Así las personas que quieran contribuir al desarrollo del código, sabrán cómo hacerlo.
-Ha de haber varios testadores o confirmadores del código, así como establecer claramente los pasos para llegar a ser confirmador del código.
-Supresión de cualquier licencia o marca registrada.
-Supresión de cualquier tipo de propiedad sobre el código fuente.
-Aportar soluciones a los problemas que planteen otros colaboradores u otros clientes. Es decir, que se realicen actualizaciones.
-Algo obvio, pero no por ello menos importante: la elaboración de una buena documentación, para que cualquier cliente sepa cómo configurar, instalar y utilizar su aplicación.

De la misma manera que ocurre con las licencias Creative Commons o con la iniciativa Open Access para la investigación científica, el código abierto no es la piedra filosofal. Es sólo una opción entre otras, con aspectos positivos y negativos. Lo más importante para una biblioteca es saber quién le va a proporcionar soporte técnico y cómo van a ser tratadas sus peticiones y mejoras. Tener la seguridad de que nuestro SIGB no se va a quedar “tirado” en ningún momento es crucial. De momento, la apuesta mayoritaria en España para SIGB es de software propietario. Posiblemente, el código abierto para SIGB podría prosperar si está auspiciado y financiado por un organismo público o por fundaciones. Ojála que dentro de poco muchos bibliotecarios estén participando en alguno de estos proyectos, no sólo como asesores, sino como colaboradores activos. Es cuestión de ampliar nuestros conocimientos, de nosotr@s depende.

Nota: para la elaboración de este artículo he utilizado los textos de Roy Tennant (Library Journal, 14 de mayo) y de Nathan Willis (LWN.net, 5 de mayo).

viernes, 14 de mayo de 2010

La neutralidad de la red y las operadoras de telecomunicaciones

Hace unos días, he “capturado” un amplio artículo de The New York Times referido a un tema que también ha llegado al ámbito europeo, si bien no ha tenido demasiado eco mediático. Se trata de la neutralidad de la red. De primeras, podría parecer que se refiere al papel censor o no de la web. Pero tiene que ver con algo mucho más prosaico. O esencial, dependiendo del punto de vista que se vea.

Me refiero al volumen de tráfico que puede soportar la red de banda ancha. Hasta la fecha, los operadores de telecomunicaciones habían creado la expectativa a los usuarios de que podrían conectarse y descargar cuanto quisieran para atraer a más clientes. Daba igual que te conectases mucho o poco, pagarías lo mismo.

Pero se ha llegado a una situación en que la infraestructura de banda ancha puede soportar el actual nivel de tráfico con muchas dificultades. De manera que el uso de la red de algunos usuarios compromete la velocidad de la red para el resto de usuarios.
Un ejemplo de ello es lo que sucedió el año pasado en Estados Unidos: la operadora de cable Comcast bloqueó el servicio a los usuarios de BitTorrent, uno de los grandes generadores de tráfico de banda ancha. La Comisión Federal de Comunicaciones ordenó a Comcast detener el bloqueo. Comcast impugnó el fallo y, finalmente, un tribunal de apelación de Washington atajó la cuestión afirmando que la Comisión Federal de Comunicaciones no podía decir a Comcast cómo tiene que administrar su red.

La “neutralidad de la red” es un tema candente de la actualidad. Tanto es así que Neelie Kroes (Comisaria de Telecomunicaciones de la UE) tiene previsto celebrar una consulta pública sobre este tema este verano. Y se posicionaba advirtiendo a los operadores que no pueden retardar los servicios de voz por Internet como Skype.

Los operadores están preocupados con este panorama, porque temen que un mandato legal les obligue a observar las normas de neutralidad de la red. Creen que haría menos atractiva la industria de la banda ancha de alta velocidad, lo que podría limitar a su vez la inversión futura y la mejora de las redes.

El problema de la congestión es mucho más grave para los móviles, ya que la capacidad de la banda ancha móvil está limitada por la capacidad de las estaciones instaladas. Y, desde luego, cuanto más usuarios por estación, el rendimiento por usuario se reduce significativamente.
De hecho, se puede decir que los operadores no respetan esa “neutralidad” al utilizar técnicas como el “traffic shapping” (que ordena el tráfico para asegurar el servicio para todos) o el “throttling” (que aplica un freno general a los grandes flujos de datos), con el objeto de evitar los cuellos de botella.
Un ejemplo concreto de prácticas para aliviar la congestión del tráfico en la red es el de Vodafone, que alerta a sus clientes cuando exceden los límites de descarga de sus servicios contratados.

Mucho más revuelo está creando la iniciativa que están proponiendo algunos dirigentes como César Alierta (presidente de Telefónica) y Vittorio Colao (jefe ejecutivo de Vodafone), que es no cobrar sólo a los usuarios que generan mucho tráfico de datos, sino también a los sitios web como Google, Amazon o Facebook. A cambio, a estas páginas se les garantizaría un servicio más rápido.
Dichas empresas como Google se oponen a esas medidas, ya que afectaría a la economía de Internet y obligaría a los proveedores de contenido a cobrar un peaje a los usuarios.
Pero las operadoras afirman que si sigue la situación actual el negocio dejaría de ser rentable.

Por lo que nos afecta más directamente a los usuarios, estas reclamaciones de las operadoras indican el principio del fin de un tipo de negocio, el servicio único de conexión a Internet para todos. Lo que las empresas de telecomunicaciones nos ofrecerán dentro de poco (al menos tiene toda la pinta) es un servicio diferenciado, como el que ofrecen los bancos o las empresas de transporte. Habrá un servicio básico para todos a partir del cual a mayor precio, mejores servicio. En este caso, mayor velocidad de conexión.

Como se puede observar, no se trata de una cuestión baladí, ya que el mayor proveedor de información, con diferencia, es la red. Y estoy casi seguro de que nos va a tocar pagar más. Ojalá me equivoque.

Nota1:
este post es un comentario-resumen del artículo original publicado en The New York Times el 2 de mayo, escrito por Kevin J. O´Brien.
Nota2: podéis encontrar información complementaria en el artículo de El País, publicado el 13 de abril.

sábado, 8 de mayo de 2010

Los bibliotecarios también son digitales

Desde hace unos años, las bibliotecas digitales están de moda. La atracción que despierta todo lo que se haya a través de Internet parece irrestible. Pero el cambio de formato no supone un cambio sustancial para los documentos.

Esta afirmación (que comparto) es la que defiende Jonathan Shaw (colaborador de Harvard Magazine). Actualmente, es cierto que las colecciones de libros parece que comienzan a verse como un ente incómodo en las bibliotecas universitarias y de investigación. Tiene lógica que, por ejemplo, los investigadores de ciencias aplicadas, que necesitan constantemente información actualizada, puedan ver las colecciones de libros con cierta animadversión. Ocupan mucho espacio y no poseen la facilidad de actualización de los documentos electrónicos.

Proyectos de digitalización como el de Google hacen que buena parte de la sociedad vea ya a las bibliotecas como almacenes de libros (otro importante sector las ve como salas de estudio o un lugar de eruditos). Como afirma Helen Shenton, la ex-jefa de la sección de conservación de la colección de la British Library, el futuro es digital. Los usuarios lo reclaman y las bibliotecas, poco a poco, se están transformando en ese sentido.

Pero la cuestión que nos plantea Jonathan Shaw es: ¿ser digital supone realmente un cambio tan radical para las bibliotecas? Veamos.

Sí, el formato cambia. Pero el contenido sigue siendo datos. En este sentido, Peter Bol (profesor de lenguas y civilización asiáticas) hace una interesante reflexión. En los campos de la botánica o de la zoología comparada, los investigadores necesitan ejemplos históricos de vida vegetal y animal. Por ello, crean colecciones y cooperan con otros investigadores e instituciones que también tienen colecciones. A éstas las podemos llamar museos, por ejemplo. Pero lo que son indiscutiblemente es un conjunto de datos. Si se estudia la historia de China, se necesitará el acceso a las fuentes primarias. En la física o la química, se necesita información constantemente actualizada porque el conocimiento generado en el pasado tiene poca relevancia para la investigación actual. De manera que dependiendo de nuestro ámbito científico, necesitaremos de los servicios de una biblioteca, de un museo o de un sitio web.

Pero, en todo caso, ¿quiénes tienen un mayor conocimiento científico para la organización a gran escala, la recolección y el acceso a la información? No cabe duda que los bibliotecarios. De manera que el futuro digital que ya tenemos entre nosotros, no es una amenaza. Lo que tiene que hacer la profesión bibliotecaria (que, de hecho, ya lo está haciendo) es cambiar su curriculum. Los bibliotecarios tienen que ser especialistas en la organización, el acceso y la preservación de la información en los múltiples medios de comunicación y formatos. Muy al contrario de lo que mucha gente pensaba, probablemente nunca antes se haya necesitado tanto a los bibliotecarios.

Nota: este post es un resumen-comentario del artículo original de Jonathan Shaw, publicado en Harvard Magazine en mayo de este año.

martes, 4 de mayo de 2010

Las bibliotecas universitarias y especializadas necesitan renovarse

El post de hoy lo dedico a un informe reciente de la OCLC (Online Computer Library Center) que sugiere que las bibliotecas universitarias y especializadas ya están amenazadas por importantes factores de riesgo, de modo que no deben esperar a atajarlos. El estudio realmente no marca estrategias para solventar los problemas, pero sí bosqueja el sendero a seguir, señalando las deficiencias actuales.

El trabajo realizado por la División de Investigación de la OCLC tiene como base las entrevistas realizadas a 15 directores de bibliotecas asociadas a la American of Research Libraries (ARL). Se ha pretendido identificar, caracterizar y clasificar los riesgos.

El estudio se ha realizado valorando los diversos aspectos de las bibliotecas científicas.

1.El apartado “Value proposition” lo traduzco como la “Visibilidad de la biblioteca”. Sería la capacidad de la biblioteca de transmitir su importancia a los usuarios, a través de una invisible correa de transmisión. Ésta parece que no está bien engrasada, debido a dos circunstancias:

-La disponibilidad mediante Internet de los recursos de la biblioteca, así como de otros muchos ajenos a ella, reduce la visibilidad y la sensación de necesidad de la biblioteca.

-Por otro lado, parece que las bibliotecas científicas siguen comunicándose ineficientemente con sus usuarios.

2.Los Recursos Humanos son un apartado de alto riesgo por las siguientes razones:

-Es complicado reclutar los trabajadores adecuados debido al actual entorno competitivo y a la escasez de candidatos cualificados.
-Los recursos humanos no están asignados apropiadamente para proporcionar la formación y el desarrollo.
-Los trabajadores actuales no poseen las capacidades para adelantarse a las necesidades futuras.
-Por último, la naturaleza conservadora de las bibliotecas dificulta la adaptación oportuna a las nuevas circunstancias.

3.Los bienes no perecederos.


-El cambio del valor de las colecciones bibliotecarias no se considera un factor importante.


-Curiosamente, tampoco se considera factor de alto riesgo ni los edificios, ni el mantenimiento de las colecciones, ni los presupuestos limitados, ni las variaciones constantes en el tipo de cambio de la moneda, ni la falta de inversiones para atajar el deterioro del espacio físico. A estas cuestiones sólo se les otorga una consideración de riesgo medio.

4.La herencia tecnológica sí recibe una consideración de alto riesgo, desglosándose en las siguientes cuestiones:

-Las bibliotecas no se adaptan a la suficiente velocidad al rápido cambio tecnológico y a las necesidades de los usuarios.
-Crecimiento de las deficiencias y de los gastos, a consecuencia de la falta de funcionalidad de los sistemas legados y del soporte informático.
-Las evaluaciones sobre las sostenibilidad de los sistemas por parte de la propia institución o por terceras partes no ha sido suficientemente analizada.

5.La propiedad intelectual. Es interesante que a este apartado no se le da la consideración de alto riesgo. Se desglosa en las siguientes cuestiones:

-Pérdida de algunos activos tradicionales con los proveedores comerciales.

-Se le da mayor importancia a que los contenidos hayan pasado a estar controlados por agentes comerciales y proveedores de servicios on line. Es el caso de las asociaciones público-privadas con agentes externos como Google. Pero no es considerado como un factor de alto riesgo.

Estrategias de mitigación:

Para solucionar o, al menos, reducir la importancia de todos estos problemas se proponen las siguientes estrategias:

-Fomentar la infraestructura compartida.
-Aumentar la externalización.
-Incrementar la consolidación de los servicios regionales, para poder mitigar los problemas de la evolución tecnológica, de las necesidades de los usuarios.
-Reestructuración de las cargas de trabajo.

Otras estrategias aplicables:

-Para hacer frente a recursos de información como Google, se sugiere implementar activos y servicios de la biblioteca en la red, conforme a las actuales prácticas de investigación en la red. Por ejemplo, las bibliotecas de investigación podrían incorporar herramientas de trabajo en red que podrían renovar su visión y confianza en los servicios bibliotecarios.


-Para poder encontrar candidatos más cualificados y cambiar la naturaleza conservadora de las bibliotecas universitarias y especializadas, podría ayudar la reestructuración de los flujos de trabajo tradicionales haciendo énfasis en los servicios de apoyo a la investigación.

Finalmente, los autores del informe señalaron que al principio del mismo (hace 18 meses) se encontraron con un ambiente de reticencia y escepticismo.
Posteriormente, se constató una aceptación general de que los desafíos son reales, y que han de enfrentarse con el esfuerzo colectivo y con una nueva visión de los servicios.



Nota1
: el post es un resumen-comentario de un artículo publicado en Library Journal, escrito por Norman Older (con fecha de 15 de abril).

Nota2: enlace al informe original de la OCLC.