martes, 19 de noviembre de 2013

Confianza en la red. Parte 3

Confiar en quienes confiamos y dudar de los desconocidos parece ser la máxima que se puede imponer en un futuro próximo. 

Los límites de la confianza ciega, el caso de las redes sociales

En la historia de la Web, se vienen sucediendo revoluciones tecnológicas que abren nuevas perspectivas y posibilidades, que en todo caso han fructificado gracias al favor y confianza depositada por el usuario. Primero fue la fiebre de los blogs que ya en 1997 comenzó a fraguarse hasta que aparecieron los primeros servicios de publicación gratuitos de los cuáles cabe destacar Blogger. Los blogs o bitácoras se concibieron como un mecanismo de publicación dinámico que permite contar un hecho, una historia, una vivencia o una opinión con una agilidad y una inmediatez que hasta la fecha no se había visto. Ello implicó centenares de miles de historias que alimentaron la Web de contenidos personales, científicos, educativos, profesionales, cuyo seguimiento fue posible gracias a los canales de sindicación, un método de redifusión masiva de la información que cualquier usuario podía utilizar libremente. A partir de este punto empezó a gestarse una nueva idea de dinamismo en las comunicaciones en la red, aparecieron formatos de publicación minimalistas, como los microblogs y como consecuencia casi natural de la inmediatez en la comunicación y la necesidad de humanizar la web, surgieron las primeras redes sociales. Es verdad que en algunos casos el blog de una cándida adolescente resultó estar escrito por un varón de pelo en pecho y entrecano, para gran desilusión de los fans de ese blog.

Este fue el caldo de cultivo en el que se fraguó el mayor "Gran Hermano" de Internet. Pensemos por un momento que gracias a los canales de sindicación no sólo es posible saber lo que se publica en miles de páginas web a la vez, sino que también fue posible seguir los comentarios y conversaciones que miles de personas tenían libremente en servicios como Facebook o Twitter. Estos programas informáticos, también denominados agregadores, comenzaron a estar al alcance de más personas y teóricamente era perfectamente factible prepararlos para recopilar toda esta información. Esto suponía un peligro muy importante, puesto que si bien, los contenidos de los blogs y páginas web son deliberadamente publicados para su difusión, las conversaciones personales y los debates que se producían en las redes sociales tenía como finalidad interconectar a los amigos y, por tanto, la mayoría de las veces no tenían la pretensión de su difusión pública y mucho menos de permitir su recopilación y procesamiento inteligente para otros fines. 

Entre otros fines, se podría utilizar el procesamiento inteligente para conocer si la población de un país está de acuerdo con las últimas medidas económicas de un gobierno o, permite un seguimiento directo de opositores, activistas o rivales al conocer donde estuvo y con quien estuvo. También puede servir para realizar campañas de concienciación encubiertas, cambiar la forma de pensar de las personas por medio de la introducción de temas de debate, crear polémicas y tendencias puramente artificiales para lograr un objetivo final bien planificado, en definitiva servir de laboratorio, oráculo y mesa de operaciones para la ingeniería social. Imaginemos por un momento que nuestros gobernantes, fueran quienes fueren, tuvieran la capacidad de dirigir a su pueblo como un rebaño, con la precisión con la que un pelotón de infantería desfila el día de la fiesta nacional. Probablemente el coste y el desgaste que actualmente supone la gobernanza, se reduciría al máximo, proporcionando una impunidad y libertades absolutas para que cumplan su plena voluntad. Dicho párrafo, puede parecer la teoría de una conspiración pero viene siendo una realidad desde hace mucho tiempo. De hecho en el año 2011 se destapó en diversos medios que el ejército de Estados Unidos estaba desarrollando programas informáticos capaces de crear perfiles falsos con la clara intencionalidad de manipular la opinión pública. Al parecer se estarían creando miles de perfiles gestionados por programas informáticos capaces de simular conversaciones, realizar subversión y manipular la conciencia colectiva de los usuarios, con el objetivo de ayudar a pacificar países como Irak y Afganistán, según indica Parmy Olson, redactora de la revista Forbes. No es de extrañar el uso de estas tácticas, puesto que se logra acceder a una de las formas de ocio y esparcimiento de la juventud en aquellos países, que a su vez supone también un foco de captación de futuros terroristas, tal como especifica el investigador Miguel Ángel Cano Paños en su artículo "Internet y Terrorismo Islamista. Aspectos Criminológicos y Legales".

Si bien el caso planteado atañe a la lucha contra el terrorismo, el uso de la información y la manipulación activa de las redes sociales es un hecho necesario para la seguridad, también pueden existir tentaciones que conlleven un uso menos ético, responsable y por ende interesado. Mientras tanto, la sociedad ha vivido de espaldas a estas tensiones y luchas de la información. La web social es gratis, inmediata, curiosa (en el sentido completo del término). Todo el mundo puede hablar con quien quiera en cualquier lugar, a fin y de cuentas se trata de un mundo feliz en el que la relevancia social depende de los seguidores virtuales que tenemos, un mundo de apariencia, egolatría y pura imagen de lo que las personas quisieran ser y por ende, de las apariencias. La comodidad y satisfacción que millones de personas encuentran en estos servicios, se traduce en una relajación completa de su instinto natural de protección y alerta, consiguiéndose una sedación que se traduce en una confianza ciega completa y perfecta. El usuario olvida que pueden obtener información personal para utilizarla en su contra, que carece de intimidad, que sus datos pueden ser utilizados para realizar estudios de mercado, que al margen de la dimensión humana de la interrelación con otras personas, a su costa se están lucrando miles de empresas que pueden saberlo todo sobre nosotros. Actúa por tanto un sentimiento de colectividad tan fuerte que en muchos casos prevalece sobre la individualidad. Es este punto en el que el hombre del siglo XXI ha cedido inconscientemente sus libertades en pro del bien común de unos pocos. Las preguntas que podemos hacernos son las siguientes ¿Cuáles son los límites de esta relación de confianza? ¿Cuáles son los límites de la manipulación de la información? ¿Qué ocurrirá con las personas que no aceptan la web social? ¿Se están implantando medidas personales de protección en las redes sociales? ¿Garantizan los prestadores del servicio de redes sociales la reserva de los datos personales?

miércoles, 13 de noviembre de 2013

Confianza en la red. Parte 2

Otro tipo de confianza en la Red es la que se produce entre el internauta y sus proveedores de contenidos. El gran éxito de Google se encuentra en que somos muchos los que consideramos que los resultados de este buscador satisfacen nuestras necesidades. Confiamos en Google a la hora de buscar la información.

Cuando Bing jugó a ser Google

Un episodio bien conocido, que ilustra la desconfianza y la competencia feroz del mundo en el que vivimos, es el caso de plagio entre buscadores. Esto es lo que ocurrió con Bing, un buscador llamado a ser la competencia directa de Google, la alternativa plausible a su dominio hegemónico. Su constitución en el año 2009 fue el resultado de la unión de dos buscadores, Live Search de Microsoft y Yahoo Search, que tomaron como propio, el dicho de que la unión hace la fuerza. El contexto en el que esto sucedía era preocupante, puesto que en términos de cuota de usuarios (consultado en StatCounter), Google aglutinaba el 90% del total, frente al 4,35% de Yahoo y el 3,31% del recién creado Bing. Si bien el dominio de Google nunca se vió amenazado, si se observó un cambio de tendencia durante su primer año de vida, Bing comenzó a incrementar el número de usuarios alcanzando la segunda posición en el ranking de los principales buscadores de la Web. ¿A qué fue debido este cambio? Un artículo esclarecedor de este hecho fue publicado en 2010 por Miguel Ángel López Trujillo, experto reconocido en la cultura del emprendimiento y la comunicación, en el que valoraba muy positivamente el buscador Bing, llegando a citar “inconscientemente” el quid de la cuestión:
<< Los resultados de sus búsquedas [refiriéndose a Bing] son igual de valiosos que los de Google, o al menos en la “milla de oro” de los primeros 10 resultados >>
Es muy posible que decenas de miles de usuarios, empezaran a darse cuenta de que los resultados que proporcionaban ambos buscadores eran muy similares, incluso llegando a parecer mejor ordenados en Bing. La posibilidad de que Bing hubiera acortado en tan reducido lapso de tiempo la brecha tecnológica con Google supuso una pequeña victoria que poco tiempo después se tornaría en una decepción, o como los más modernos lo denominan un “bluff” o fanfarronada tecnológica, realmente original y astuta. De hecho no sólo los resultados de Bing eran igual de valiosos que los de Google, sino que en realidad Bing copiaba los resultados de Google, mejorando posteriormente su ordenación. De esta manera resultaba menos evidente. Este método fue desvelado por Google después de realizar diversas investigaciones al comprobar que  cualquier cambio realizado en sus algoritmos, era reproducido con un altísimo grado de coincidencia en Bing. Sin duda alguna, de no haberlo averiguado, Bing sería el sueño dorado de cualquier empresario, ya que los avances tecnológicos de la competencia eran automáticamente replicados sin tocar una sola tecla. Se estima que la barra libre duró sólo hasta febrero del año 2011, momento en el que Google presentó quejas formales acusando a Bing de copiar indiscriminadamente sus resultados. Como es lógico el mazazo para Bing fue considerable, puesto que el 1% de usuarios que había logrado ganar, lo perdió rápidamente y no volvió a recuperarlo hasta el mes de septiembre de 2013. La desconfianza que generó la publicación de las pruebas del plagio hizo ver a muchos usuarios que la fuente de información principal seguía siendo Google, al margen de otras alternativas, que como mínimo necesitaban replicar, copiar o tomar prestado los datos y contenidos para poder ser competitivos.

viernes, 1 de noviembre de 2013

Confianza en la red. Parte 1

En nuestra vida estamos constantemente evaluando a personas, a situaciones, a mensajes… una mirada, un comentario, un tic puede hacernos perder la confianza en un vendedor, un profesor, un amigo o una empresa. A veces se hace de forma consciente, en otras ocasiones es algo que casi ni percibimos, pero que nos hace dudar o, simplemente desconfiar. 

La confianza, de un valor intangible a un elemento esencial de la red 

La Red que hoy en día conocemos es el espacio de información y documentación más importante que jamás haya sido proyectado por el hombre. Esta afirmación es consecuencia de la evolución permanente y continua del pensamiento humano y de la necesidad de proyectar el conocimiento en un espacio atemporal en el que podemos encontrar informaciones, documentos, canciones… que fueron colocadas hace mucho tiempo. Incluso es posible encontrar datos sobre uno mismo que ya habíamos olvidado. Un sistema que se retro-alimenta y adquiere nuevas dimensiones cada día, no sólo en lo que al volumen se refiere, sino en cuanto a las realidades y hechos representados en la red, así como los valores intangibles de quienes participan en la red: prestigio, confianza, volumen de negocio, belleza en el diseño...

En el comercio electrónico de los bienes de consumo, normalmente de objetos tangibles (palpables), el proceso de compra es diferente en la Red a cuando se acude a una librería para comprar la última edición de una novela. Pese a que la decisión de compra ya está tomada, en la librería un buen librero nos podría aconsejar y orientar -¡léase antes el primer libro de la trilogía!- Aunque en ambos caso confiamos en la calidad del libro que estamos comprando, porque hemos consultado a terceros, leído reseñas de periodistas y escritores. En definitiva, nos hemos formado una idea del contenido que esperamos encontrar. Dicho de otra forma, hemos adquirido suficiente confianza como para comprarlo y disfrutar de su lectura. Pero qué sucede cuando el libro nada tiene que ver con la crítica literaria o con los consejos recibidos. No sólo el lector se siente engañado, sino que desconfiará del autor de dicha novela y probablemente no volverá a comprar ninguna de sus obras. Incluso la desconfianza alcanzará a quienes nos recomendaron el libro. Por tanto es la confianza de los lectores, el factor principal que sustenta en gran medida el éxito de los bestsellers, de determinados críticos literarios y de concretas páginas sobre literatura. 

Además cuando se compra el libro por la red afrontamos otras incertidumbres: ¿nos llegará el libro que hemos pagado? ¿Estará en buenas condiciones o el transporte lo habrá deteriorado?

La confianza es esencial en la Red. Nos informamos por este periódico digital y no por un portal genérico, porque confiamos más en el verdadero trabajo periodístico. Permitimos el uso de cookies en esta página web y no en aquella otra según la confianza que tengamos en el responsable de la Web, en concreto de cómo va a tratar mis datos personales relativos a preferencias, navegación… Compramos en este portal y no en otro, porque nos ofrece mayor seguridad. Participamos en este sistema de subastas y no aquel otro, porque en ese segundo nunca hemos conseguido nada, nada más que perder dinero. Todo esto pone de manifiesto la importancia de la confianza en las relaciones que se establecen en la Red.

Los sujetos que participan en Internet necesitan de la confianza en sus relaciones, hasta el punto que para un correcto funcionamiento de la Red se convierte en algo imprescindible. Esa confianza puede referirse a diferentes relaciones. Entre ellas la relación que se da en la publicidad.

El caso de Google AdSense

La publicidad es un elemento esencial en el desarrollo de las empresas cuyos servicios se ponen a disposición del público, pero también es un medio de financiación de los proveedores de contenidos y de los buscadores, como es el caso de Google. Esta empresa en el segundo trimestre del 2013 obtuvo unos ingresos consolidados de 14.100 millones de dólares, de los cuales los ingresos por publicidad y otros servicios fueron de 13.100 millones de dólares.

La publicidad se convierte en un imprescindible medio de financiación, pero puede ser también el talón de Aquiles de las compañías. Ya en épocas tan tempranas como el año 2005, nos encontramos un hecho que demuestra esta teoría. Google, el buscador más importante del mundo, fue demandado debido al conocido fraude de los clics. El modelo de negocio se basaba en el pay per click (PPC), es decir, si un usuario hace clic en un anuncio, Google y la página anunciante reciben una pequeña cantidad de dinero. De esta forma cualquier usuario del programa de anuncios podría mejorar su visibilidad, ventas y por ende su negocio en la red. Pero la aparición de personas, programas e incluso empresas dedicadas exclusivamente a presionar el botón del ratón, generó que alrededor de un 20% de los clics fuera ficticio. De hecho la desconfianza generada fue tal, que en el año 2006 se llegó a especular que dicho fraude podría destruir la economía de la red, tal como se señaló en la prestigiosa revista Wired. Por otra parte ya en el año 2007, el portal de noticias tecnológicas ZDNet se hacía eco de la información publicada por Google, relativa a las pérdidas generadas por el problema de los clics, estimadas en 1 billón de dólares. A raíz de tales problemas Google desarrolló mecanismos de seguridad e intentó erradicar dicho problema, hasta lograr un cambio en la opinión de sus usuarios. Tal es así que Google, en su página comercial de soluciones publicitarias, lo explica de esta forma:
<< La relación entre Google, los anunciantes y los editores se basa en la confianza >> << Nos tomamos muy en serio esta confianza, pues sabemos que las redes publicitarias de Google no existirían sin ella…>> << Al mantener la confianza de nuestros anunciantes y proporcionar un campo de juego de nivel para todos los participantes de la subasta, facilitamos a los anunciantes el realizar una planificación detallada de su inversión y calcular las ofertas que sean económicamente rentables para su negocio. >>
Queda claro que el negocio de Google se basa en la confianza, un valor que apuntala su importante crecimiento y su papel protagonista en la Web, a tenor de sus últimos resultados. Pero cabe preguntarse ¿Cuánto tiempo se logrará mantener dicha confianza? ¿Hasta qué punto es Google inexpugnable? ¿Existe una nueva burbuja relativa al fraude de clics? Resulta inevitable, un constante balance de fuerzas en el lucrativo negocio de la publicidad en internet, por ejemplo en el año 2004 el portal de noticias WebProNews publicó la curiosa noticia del arresto de un ciudadano estadounidense, después de vender un programa informático que hacía uso de una vulnerabilidad en el servicio AdSense, por la que era capaz de hacer clic en los anuncios automáticamente. 

Mucho más reciente es la noticia publicada en 2012 por Portal Tic de la agencia Europa Press, en la que se pone de relieve, que uno de los objetivos de los ciber-delincuentes es la vulneración de Google AdSense, casi siempre mediante técnicas de suplantación del código de los anuncios. 

Google en su plena consciencia del problema, viene desarrollando contra-medidas, según publican diversos medios, entre ellos Fayer Wayer. Éstas consisten en incentivar el descubrimiento de las brechas de seguridad en sus servicios y programas, por las que ya ha pagado más de 2 millones de dólares en premios. De esta forma se reduce la tentación de delinquir, la seguridad del servicio se mantiene y con ello la confianza del usuario.

lunes, 14 de octubre de 2013

Desarrollo tecnológico y documental del webcrawler Mbot: prueba de análisis web de la universidad española

Tipo: Experimental
Título: Desarrollo tecnológico y documental del webcrawler Mbot: prueba de análisis web de la universidad española
Referencia: http://eprints.rclis.org/20404/

Cibermetrical and webometrical researches demand tools expressly designed for information harvesting in the Net. So far webcrawler applications have been used for this purpose, but most of them are very difficult to configure and to adapt for the purpose. Therefore we propose here a new concept of webcrawler, called Mbot, whose goal is to make this technology more adaptable to the work of the information scientist, making it at the same time quicker and more efficient. Here the execution engine of the application is introduced, its characteristics and an analysis trial of the web, starting with a link seed represented by 147 websites of Spanish universities.

Las investigaciones webmétricas y cibermétricas exigen el uso de herramientas específicamente diseñadas para la recolección de información en la red. Este planteamiento implica el uso de programas webcrawler que en muchos casos resultan complejos de adaptar y configurar. En consecuencia se propone la innovación y el desarrollo tecnológico de un nuevo concepto de webcrawler, denominado Mbot, cuya finalidad es acercar al documentalista esta tecnología y permitir al investigador implementarlo de forma rápida y efectiva. En la consecución de este objetivo se presenta el mecanismo de ejecución del programa, sus características y una prueba de análisis de la web partiendo de una semilla de enlaces constituida por 147 sedes web de universidades españolas.

Reconocimiento constitucional de las libertades comunicativas: una necesidad personal y una exigencia pública

Tipo: Experimental
Título: Reconocimiento constitucional de las libertades comunicativas: una necesidad personal y una exigencia pública
Referencia: http://derecom.com/numeros/pdf/sanchez.pdf

Cuando se analiza el grado democrático de una sociedad siempre se puede hacer desde una perspectiva optimista –la botella está medio llena- o pesimista –la botella está medio vacía. Incluso se puede emplear un análisis temporal de la situación y la normativa –la botella en el pasado estaba más llena o más vacía. Según entendemos hay una prueba imprescindible para comprobar la salud democrática de un estado, sociedad o comunidad: la libertad de expresión que efectivamente existe en esa sociedad. Ésta es la prueba real de un sistema democrático. De nada sirve que los ciudadanos sean llamados a votar cada poco tiempo, si su voto se deposita de forma ciega y mediatizada por el poder, si su capacidad de queja es ahogada en aras del interés público o si el pluralismo político de los medios de comunicación es inexistente. Indudablemente cuando se niega la libertad de expresión porque se es extranjero, se tiene la piel de un determinado color o porque lo que se dice es incómodo al poder, en este caso, el nivel democrático de esa comunidad es prácticamente cero, aunque el gobernante -ya tirano- haya sido elegido por el pueblo, pues aunque exista legitimidad de origen, no hay legitimidad de ejercicio. En este sentido, la legitimidad democrática depende en gran medida del grado de libertad real de una sociedad. Ello comienza por la existencia y vigencia de una constitución en donde se conjuguen los principios de libertad e igualdad. Si no fuera así, el gobernante elegido no actuaría dentro de un marco democrático. Por eso cuando un gobernante coarta la libertad de información, trata de eliminar a los rivales políticos y modifica la normativa básica del Estado, incluyendo la Constitución, los indicios señalan la muerte de la democracia. Así planteado desde un punto de vista teórico puede aplicarse en el año 2009 a varios países, incluso a algunos hispanohablantes. La trascendencia de una comunicación pública libre y, en concreto, sobre el papel que los profesionales de la información desempeñan en una sociedad libre es un tema esencial en los sistemas auténticamente democráticos. Comencemos por analizar lo que ocurre en nuestra propia casa, centrándonos en cómo la Constitución española recoge esa libertad a una comunicación pública libre. En este sentido, varias son las preguntas que nos permitimos hacernos: ¿Debe citarse a la profesión periodística en las normas fundamentales de los Estados? ¿Se menciona a la profesión periodística en la Constitución española? ¿En qué términos se recoge la función de informar en nuestra norma suprema? ¿Significa el reconocimiento constitucional de la función de informar una "patente de corso" o un privilegio en favor del periodista? A partir de las respuestas a estas preguntas, solicitaremos que en esa deseable conjunción entre sociedad real y norma fundamental se reconozca la labor social de los periodistas a nivel constitucional y en la legislación ordinaria.

Una nueva libertad de expresión para una nueva sociedad

Tipo: Experimental
Título: Una nueva libertad de expresión para una nueva sociedad
Referencia: http://www.dialogosfelafacs.net/una-nueva-libertad-de-expresion-para-una-nueva-sociedad-2/

Freedom of expression, the right of free public communication or as we may to call this fundamental right that protects and shelters communication processes, will adapt to the new society and the new historical moment. We will be players of this adaptation from university, politics, social movements, judiciary ... each in our place we must find an adjustment for freedom of expression so as to achieve a more just, free and equal future. In any case, freedom of expression must not loose its universal characteristics. Universal in relation to any type of messages which it covers, the subjects that participates, the media that are used or the space where it is develops. Freedom of expression is today a fundamental right essential for democratic systems and personal development. The transformation of society has led to the emergence of a new fundamental right of access to public information. The evolution has been more accurate and powerful in the America (case of Claude Reyes and Others v. Chile) than in Europe, although the Convention of Tromsø, and the jurisprudence of the ECHR are consolidating this right that not only generates a more transparent and effective Administration, and therefore less corruption but a participation of citizens in public affairs and, more importantly, personal fulfillment are recognized as owners of information in state hands.

La libertad de expresión, el derecho a la comunicación pública libre o como queramos llamar a este derecho fundamental que viene a proteger y amparar los procesos comunicativos, se adaptará a la nueva sociedad, al nuevo momento histórico. Nosotros seremos protagonistas de esa adaptación desde la universidad, la política, los movimientos sociales, la judicatura... cada uno en su papel debemos buscar un ajuste de la libertad de expresión para lograr un futuro más justo, libre e igualitario. En todo caso, la libertad de expresión no puede perder su carácter de universal. Universal en cuanto al tipo de mensajes que ampara, los sujetos que actúan, los medios que se emplean o el espacio en el que se desarrolla. La libertad de expresión constituye hoy en día un derecho fundamental esencial para los sistemas democráticos y para el desarrollo personal de los individuos. La propia transformación de la sociedad ha generado la aparición del derecho fundamental a acceder a la información pública. La evolución ha sido más precisa y contundente en el continente americano (caso Claude Reyes y otros versus Chile) que en Europa, aunque tanto el Convenio de Tromsø, como la jurisprudencia de TEDH van consolidando este derecho que no sólo genera unas Administraciones más transparentes y eficaces -y por tanto menos corruptas-, también una participación en los asuntos públicos de los ciudadanos y, lo que es más importante, la realización personal de las personas que se les reconoce como titulares de la información en manos del Estado

miércoles, 9 de octubre de 2013

Lentitud en el desarrollo de la mHealth desde centros sanitarios españoles

Tipo: Experimental
Título: Lentitud en el desarrollo de la mHealth desde centros sanitarios españoles
Referencia: http://www.victorvillapalos.es/saludyredes/lentitud-en-el-desarrollo-de-la-mhealth-desde-centros-sanitarios-espanoles/

El desarrollo de software y aplicaciones para dispositivos móviles y tabletas comienza a ser un mercado más que interesante en el ámbito de la salud. Al igual que  en Estados Unidos, en España comienza a ser habitual el desarrollo de aplicaciones para smartphones o tabletas con diversas utilidades, lo que parece ser un nicho de mercado interesante y con gran acogida por los usuarios/pacientes. A pesar de que existe un boom en la creación de apps relacionadas con la salud, en España, como en otros aspectos tecnológicos, seguimos yendo a la cola en el desarrollo de este tipo de aplicaciones por instituciones y organismos relacionados con la salud (aunque comienzan a verse algunos ejemplos como este o este). En Estados Unidos, sin embargo, es habitual que los centros hospitalarios realicen este tipo de apps como una línea estratégica más (no hay que olvidar que supone un nuevo modelo de negocio, y un importante valor añadido en forma de nuevo servicio que facilita al paciente una prestación interesante y muy bien valorada).

Nuevas tendencias en gestión sanitaria

Tipo: Experimental
Título: Nuevas tendencias en gestión sanitaria
Referencia: http://www.victorvillapalos.es/saludyredes/nuevas-tendencias-en-gestion-sanitaria/

Ayer, 2 de octubre, tuve la oportunidad de asistir a la Mesa Redonda “Nuevas tendencias en gestión sanitaria” organizada por el Instituto de Postgrado de Estudios de Medicina y Salud (IPEM), con la participación de tres grandes expertos en la materia: El Dr. Temes, Director del Máster de Gestión Hospitalaria IPEM/Universidad de Alcalá, que presentaba la mesa, el Dr. Estévez Lucas, Presidente de la Sociedad Española de Directivos de Salud (SEDISA), y D. Luis Carretero, Gerente del Servicio de Salud de Castilla-La Mancha (SESCAM), ambos ponentes con dos presentaciones muy interesantes...


Gestión de fuentes de información en ciencia y tecnología: desarrollo del programa Cumulus

Tipo: Experimental
Título: Gestión de fuentes de información en ciencia y tecnología: desarrollo del programa Cumulus
Referencia: http://eprints.rclis.org/19032/

Information sources in science and technology specialist lack adequate systems for managing, cataloging and automated representation. This is because managers approach prevail bibliographic bibliographic description above consideration of institutional information source and documentary. In order to experience a new management model information sources based on their analytical study, the program is designed CUMULUS bringing new solutions to treat documentary sources and semantic relationship with third party resources. The resulting system is able to organize information sources with a description and comprehensive control of their authorities and articulate their semantic retrieval, making it a new tool to handle the source and assist in the education and training of future filmmakers.

Las fuentes de información especializadas en ciencia y tecnología carecen de sistemas adecuados para su gestión, catalogación y representación automatizada. Esto se debe a que los gestores bibliográficos priman un enfoque de descripción bibliográfica por encima de la consideración de fuente de información institucional y documental. Con el objetivo de experimentar un nuevo modelo de gestión de las fuentes de información basada en su estudio analítico, se ha diseñado el programa CUMULUS que aporta nuevas soluciones en el tratamiento documental de las fuentes y su relación semántica con terceros recursos. El sistema resultante es capaz de organizar las fuentes de información con una descripción y control exhaustivo de sus autoridades así como articular su recuperación semántica, lo que lo convierte en una nueva herramienta para tratar las fuentes y asistir en la enseñanza y formación de futuros documentalistas.

Plataforma para la investigación de contenidos sindicados: desarrollo del sistema ReSync y aplicación a los medios de comunicación españoles y mexicanos

Tipo: Experimental
Título: Plataforma para la investigación de contenidos sindicados: desarrollo del sistema ReSync y aplicación a los medios de comunicación españoles y mexicanos
Referencia: http://eprints.rclis.org/19030/

The diversification of routes of transmission of information in a complex network map configured in the content syndication channels that play an important role, requiring special treatment that ensures processing and scientific study. The object of study is the development RESYNC program that performs these functions, so that provides a platform for experimentation with massive information collected through multiple channels or sources. The proper function of parsers and content aggregators, try to be enlarged to exceed your limits. Thus tests are conducted import, processing and retrieval of contents with the main channels of media syndication Hispanic-Mexican, so that can be obtained the total number of news, information processing in press, radio , television and the internet of the same news, the ratio of quantitative data and statistical publication of the topography and structure of syndication feeds.

La diversificación de las vías de transmisión de información en la red ha configurado un complejo mapa de contenidos en el que los canales de sindicación juegan un papel importante, requiriendo un tratamiento especial que asegure su procesamiento y estudio científico. El objeto de estudio es el desarrollo del programa RESYNC, que lleva a cabo dichas funciones, de forma tal que proporciona una plataforma de experimentación con la información recopilada masivamente a través de múltiples canales o fuentes de información. Esta función propia de parsers y agregadores de contenidos, tratará de ser ampliada, para superar sus límites. En este sentido se llevan a cabo pruebas de importación, tratamiento y recuperación de contenidos con los principales canales de sindicación de medios de comunicación hispano-mexicanos, de tal forma que puedan obtenerse el número total de noticias, tratamiento de la información en prensa, radio, televisión e internet de una misma noticia, datos cuantitativos del ratio de publicación y estadísticas de la topografía y estructura de los canales de sindicación.

Análisis de la web y usabilidad: prueba de funcionamiento de Mbot webcrawler

Tipo: Experimental
Título: Análisis de la web y usabilidad: prueba de funcionamiento de Mbot webcrawler
Referencia: http://eprints.rclis.org/19104/

This research has as primary goal the development of a new web analysis application, called mbot, that may help in the cybermetric studies and specially in the obtaining of data about the documental typology contained in a given knowledge area in the Web, its distribution or stratification according to the different analysis levels used, total amount of sites, domains and pages analyzed and size or volume of contents. To prove its operational capabilities we have run several trials, among which we want to underline the exhaustive analysis of two international research centres, ESA and NASA. In both cases we have extracted and quantified all available information, in order to perform a comparative study of their topography, classification, documentary types, resources, links and contents. On the other side the factor usability is taken into consideration, including accessibility and architecture of the web, as long as they have any incidence in the recognition of patterns in the source code of the researched pages.

La presente investigación tiene como objetivo el desarrollo de un programa de análisis de la web, denominado MBOT, que facilite la elaboración de estudios cibermétricos y en especial la obtención de datos sobre la tipología de los contenidos de un determinado área de conocimiento en la web, distribución o estratificación según los niveles de análisis empleados, número total de sitios, dominios y páginas analizadas, tamaño o volumen de los contenidos. Para demostrar su funcionamiento y comprobar sus capacidades se han llevado a cabo diversas pruebas entre las que destaca el análisis exhaustivo de dos centros de investigación internacionales, NASA y ESA. En ambos casos se extrae y cuantifica toda la información disponible, a fin de elaborar un estudio comparativo sobre su topografía, clasificación, tipos documentales, recursos, vínculos y contenidos. Por otro lado, se analizará cómo el factor de usabilidad, accesibilidad y arquitectura de la web afectan en el reconocimiento de patrones, en el código fuente de las páginas analizadas.

Integración de tecnología webcrawler en sistemas de gestión de fuentes de información: Desarrollo de la aplicación Cumulus2

Tipo: Experimental
Título: ntegración de tecnología webcrawler en sistemas de gestión de fuentes de información: Desarrollo de la aplicación Cumulus2
Referencia: http://eprints.rclis.org/19105/

The objective of the research is to develop a specialized tool in the management of sources of information on science and technology, using analysis techniques parser, able to improve recovery capabilities contained in the unit or information center and documentation, as well as solving the current problem of the high level of obsolescence scientific literature. This research line has been based on the Cumulus program, which installed an integrated webcrawler acting program in pre-cataloging for retrieving as much information as possible, about an information source. To do this, there are methodological and quantitative tests to contrast and repeat the results. Finally, we present a web directory model for proper representation and visualization of the contents that had been indexed, based on the principles of web usability and accessibility.

El objetivo de la investigación es elaborar una herramienta especializada en la gestión de fuentes de información en ciencia y tecnología que, haciendo uso de las técnicas de de análisis parser, sea capaz de mejorar las capacidades de recuperación de contenidos en la unidad o centro de información y documentación; así como solucionar el actual problema que supone el alto nivel de obsolescencia de la literatura científica. En esta línea se ha tomado como base el programa Cumulus, al cual le ha sido integrado un programa webcrawler que actuará en fase de pre-catalogación, recuperando la mayor cantidad de información posible, correctamente identificada. Para ello, se presentan pruebas metodológicas y cuantitativas que permiten contrastar y repetir los resultados obtenidos. Finalmente, como resultado de la gestión y edición semi-automática de las fuentes de información, se presenta un modelo de directorio web para la correcta representación y visualización de los contenidos, atendiendo a los principios de usabilidad y accesibilidad web.

Desarrollo de un sistema de clasificación automática de contenidos en medios de comunicación españoles y mexicanos

Tipo: Experimental
Título: Desarrollo de un sistema de clasificación automática de contenidos en medios de comunicación españoles y mexicanos
Referencia: http://eprints.rclis.org/19031/

The objective of this research is to develop an automatic classification system for the contents retrieved through the Resync platform specializing in the investigation of sources of information media. This investigation is justified due to the lack of automated methods to organize the information gathered and the need to scrutinize the thematic categories addressed by the media by country. To resolve these problems, we transform the Eurovoc multilingual thesaurus in a pseudo-ontology vocabulary that is used as a qualifier for the documentary corpus. The test collection used has 400,000 contents from Mexican and Spaniard media published during the months of June-July 2011. Additionally, are designed and tested 5 automatic classification algorithms, accurate consultation and generic classification using the vocabulary above, for their harmonization with the collection of evidence. You get all the quantitative results of the experiment, concluding a progressive escalation in the percentage of classified content, given by the precision of the algorithm and its conditioning. Finally, the basis for qualitative evaluation of the classification made by the system, in order to perfect the process described herein.

El objetivo de la investigación es desarrollar un sistema de clasificación automática para los contenidos recuperados a través de la plataforma RESYNC, especializada en la investigación de fuentes de información en medios de comunicación. Se justifica su desarrollo debido a la falta de métodos automatizados para organizar la información recopilada por medio de dicha plataforma. Por otro lado, debido a la necesidad de estudiar en profundidad las categorías temáticas abordadas por los medios de comunicación según el país. Para resolver estos problemas, se transforma el tesauro multilingüe EUROVOC, en una pseudo-ontología, que es utilizada como vocabulario clasificatorio del corpus documental, compuesto por más de 400.000 noticias publicadas durante los meses de junio-julio de 2011, entre medios Mexicanos y Españoles. Por otro lado, se diseñan y prueban 5 algoritmos de clasificación automática, de consulta precisa y genérica, que emplean el vocabulario clasificatorio anteriormente mencionado, para su equiparación con la colección de prueba. Se obtienen todos los resultados cuantitativos del experimento, concluyendo un escalonamiento progresivo en el porcentaje de contenidos clasificados, dado por el grado de precisión del algoritmo y su condicionamiento. Finalmente se sientan las bases para evaluar cualitativamente la clasificación efectuada por el sistema, con el objetivo de perfeccionar el proceso aquí descrito.

Desarrollo de un sistema de catalogación y gestión de fotografías: Photon

Tipo: Experimental
Título: Desarrollo de un sistema de catalogación y gestión de fotografías: Photon
Referencia: http://eprints.rclis.org/19106/

The objective of this research is to propose a model of comprehensive analysis of photography, from the current descriptive standards. From this model, we develop a system for cataloguing and management of photo files. Its design enables it to manage all types of authorities involved in the description of the image and editing tools for integrating thesauri, details and typologies. Thus the Photon program can extract details afterimages as a dependent of an original picture, thereby improving the reuse and retrieval of the photographic.

El objetivo de la investigación es plantear un modelo de análisis exhaustivo de la fotografía, a partir de las normas de descripción vigentes. Con este modelo, se desarrolla un sistema para la catalogación y gestión de archivos fotográficos. Su diseño lo habilita para gestionar todo tipo de autoridades involucradas en la descripción de la imagen, integrando herramientas para la edición de tesauros y detalles. De esta forma con el programa Photon, se pueden extraer detalles a modo de imágenes secundarias dependientes de una fotografía original, mejorando con ello las posibilidades de re-utilización y recuperación de los fondos fotográficos.

Análisis webmétrico de los medios de comunicación brasileños: prensa, radio y televisión

Tipo: Experimental
Título: Análisis webmétrico de los medios de comunicación brasileños: prensa, radio y televisión
Referencia: http://eprints.rclis.org/19033/

The purpose of the research is the quantitative analysis of the Brazilian web media, print, radio and television, made ​​by techniques of webcrawling, which in sum represent 1315 media entities. The methodology, webometrics own, already applied in other studies (GRAELLS, E. and Baeza Yates, R., 2007), allows to know the degree of development of the site, the level of interconnection, its macrostructure, formats, extensions , domains, linked pages, document number, size, and useful resources for later use and reuse. The article proposes a second phase of the study that are conducted qualitative research on information production and thematic classification, based on the resources compiled in this first approximation.

El objeto de la investigación es el análisis cuantitativo de la web brasileña de medios de comunicación, prensa, radio y televisión, obtenidos mediante técnicas de webcrawling, que en suma representan 1315 entidades informativas. La metodología empleada, propia de la webmetría, ya aplicada en otros estudios (GRAELLS, E. and Baeza Yates, R., 2007), permite conocer el grado de desarrollo de la web, su nivel de interconexión, su macroestructura, formatos, extensiones, dominios, páginas más enlazadas, cantidad de documentos, tamaño y recursos de utilidad para su posterior aprovechamiento y reutilización. Finalmente se propone una segunda fase del estudio en la que se llevan a cabo investigaciones cualitativas sobre la producción informativa y su clasificación temática, partiendo de los recursos recopilados en ésta primera aproximación.

Evaluación del sistema de clasificación automática de contenidos "Resync" en medios de comunicación españoles y mexicanos

Tipo: Experimental
Título: Evaluación del sistema de clasificación automática de contenidos "Resync" en medios de comunicación españoles y mexicanos

The objective of the research is to evaluate algorithms for automatic classification of content, originally designed for thematic categorization of content and news compiled with RESYNC platform. The evaluation process is conducted with forms specifically designed to determine the degree of relevance of content classified by the evaluators. Finally, it shows that the algorithm evaluated, has an accuracy of 71%. It was also determined that the highest ranked topics are those related to finance, law and politics.

El objetivo de la investigación es la evaluación de los algoritmos para la clasificación automática de contenidos, diseñados originalmente para la categorización temática de los contenidos y noticias recopiladas con la plataforma RESYNC. El proceso de evaluación se lleva a cabo con formularios específicamente diseñados para determinar el grado de relevancia de los contenidos clasificados por los evaluadores. Finalmente se determina que uno de los algoritmos utilizados posee un porcentaje de precisión del 71%. También se determina que las temáticas mejor clasificadas son aquellas relativas a finanzas, derecho y política.

Perspectivas de este blog

El blog QueryThink Laboratory, tiene como objetivo servir de plataforma de pruebas para las investigaciones que está llevando a cabo nuestro grupo de investigación. Todos los contenidos publicados tienen una finalidad y objetivo, que no siempre son los estrictamente comunicativos o informativos. 

Los posibles contenidos son los siguientes:
  • Contenidos y referencias de artículos de terceros blogs e investigaciones. Tienen como objetivo servir de base contextual y de conocimiento para las pruebas que se lleven a efecto.
  • Comunicaciones y noticias. Son contenidos no experimentales que se emplean para transmitir un mensaje o información a nuestros lectores.

¿Cómo se indica qué tipo de contenido es?
  • Todos los contenidos publicados disponen de una cabecera de texto que indica el tipo de contenido, el título y la referencia o enlace si la tuviera. 

Presentación

El grupo de investigación Query&Think ha sido creado con la intención de desarrollar proyectos relativos al ámbito de las tecnologías de la documentación en combinación con la recuperación de información. Query&Think es un grupo de investigación no consolidado, formado por investigadores, profesores y especialistas del mundo de las Ciencias de la Información y la Documentación. El objetivo es poder desarrollar ideas y tecnologías originales de interés para el mundo científico y académico, haciéndolas llegar a la sociedad para su mejor aprovechamiento.

El grupo de investigación QueryThink está formado por: