Traductor

 

jueves, 31 de julio de 2008

P4P y conectivismo

Garantizar la calidad de los contenidos y resolver la superabundancia de información y la saturación del tráfico son los grandes problemas que tiene actualmente la red, siendo objeto de trabajo por parte de los expertos.

Inevitablemente avanzamos hacia una sociedad hiperconectada, en la que el intercambio de contenidos adquiere un papel protagonista.

En los últimos diez años, el uso correo electrónico desciende del 60 al 10 por ciento, la navegación representa el 20 por ciento del total del tráfico total de la red, pero subir y descargar grandes bloques de información utilizando software P2P ha pasado del 10 al 70 por ciento,, mostrando, además, tendencia al alza y apuntando un deterioro en las tasas de transferencia de información.

Hasta ahora este tráfico está soportado por redes P2P -que fragmentan un fichero en trozos pequeños que se descargan simultáneamente desde diversas fuentes, sin comprobar su localización- y servicios ISP. Los proveedores de ambos servicios, conscientes de que se tiende a la saturación investigan para mejorar ambas tecnologías, lógicamente por separado.

Sin embargo, Avi Silberschatz, Y. Richard Yang y Haiyong Xie, miembros del Departamento de Ciencias de la Computación de la Universidad de Yale, con la colaboración de la Asociación de la Industria de la Computación Distribuida, han diseñado el P4P (Proactive network Provider Participation for P2P ), una arquitectura computacional que prioriza las maquinas dentro de la red interna de un ISP sobre las que están fuera y permite que los proveedores de servicios ISP y de software P2P pueden trabajar cooperativamente, optimizando el tráfico en la red.

Esta tecnología -no es un protocolo- lo que hace es proporcionar una lista de sitios, en función de la distancia y la calidad de conexión para que sea el usuario quien decida de dónde descargará el archivo. Si lo hace dentro de la red del proveedor, la velocidad se incrementará en torno a un 200 por ciento, ayudando a resolver la saturación.

Verizon, tras realizar las oportunas pruebas, señala que el 58% del tráfico P2P puede obtenerse dentro de su propia red, sin tener que salir al exterior. En su red de fibra FTTH, las descargas llegan a acelerarse hasta seis veces sobre la velocidad habitual.

Por su parte, Teléfonica apuesta también por el P4P y realiza pruebas con resultados prometedores. Las realizadas en Perú desvelan que la distancia que recorren los datos se reduce un 57% y que el tráfico que se queda dentro de la red del proveedor aumenta un 268 por ciento.

La pregunta es obvia. ¿Mejorando la velocidad de conexión y de transferencia, mejorará también el conectivismo y la adquisición de conocimiento?

Más información no significa necesariamente mayor conocimiento.

________

Fuentes: Noticias21, El pais.com

1 comentario:

Carlos dijo...

Jo, esa pregunta es un tanto compleja. Pero yo pienso que sí, que realmente una red más potente, con más gente en ella, intercambiando información de una manera todavía más rápida y eficiente da más "cancha" a un cambio en la forma de aprender.
Creo que en esa línea van las ideas conectivistas (básicamente optimistas): la llegada de un punto de "salto cualitativo" sin retorno (a no ser que haya una catastrofe tecnológica y la red deje de funcionar). Más fluidez y más cantidad de información pueden representar (por necesidad) un cambio en la forma misma de adquirir esa información y de interpretarla... es decir, de aprender, incluso de llegar a disctutir por el sentido mismo de la palabra "aprender".
Un saludo