Archivos Mensuales: mayo 2011

Importar contenidos a WordPress a partir de un RSS implementado en ASP.NET

Este post pretende dar una idea de las posibilidades de los sistemas RSS para guardar y recuperar toda la información contenida en una página web, un blog, o simplemente en una base de datos.

Es ya muy conocida la utilidad de esta tecnología para recibir información de interés, mediante los lectores RSS, previa suscripción a un canal, sin necesidad de visitar una a una las páginas web de las que deseas obtener dicha información.

Pues bien, WordPress.org incorpora la posibilidad de importar un fichero RSS, de tal manera que toda la información contenida en ese fichero será reconocida. Como el RSS tiene un formato XML estándar, hay garantías de que no se perderá información durante el camino.

Si tenemos la información en otro blog o página web, sólo debemos exportar el fichero con el código fuente del feed e importarlo directamente en WordPress.org. La mayoría de las páginas web cuentan hoy día con la posibilidad de obtener un feed de manera muy sencilla. Generalmente sólo hay que hacer click a un icono, generalmente con este aspecto:

La importación a WordPress.org es igualmente sencilla desde el panel de administrador de nuestro blog. En la parte izquierda, hacemos click en el menú desplegable Herramientas y podremos ver la opción Importar. Si al enlazar dicha opción no vemos la opción RSS, podemos instalar cualquiera de los plugins que se nos ofrece. Aquí teneís el más famoso: http://wordpress.org/extend/plugins/rss-import/

Si sois expertos en código php + WordPress o queréis adentraros en ese mundo, podéis intentar conseguir la importación del RSS sin plugins siguiendo este tutorial (está en inglés): http://perishablepress.com/press/2009/04/26/import-and-display-rss-feeds-in-wordpress/

Estructura de un RSS

<?xml version="1.0" encoding="ISO-8859-1" ?>
<rss version="2.0">
<channel>
<title>WebNet Architect</title>
<link>https://webnetarchitect.wordpress.com</link&gt;
<description>Tutorial para importar RSS mediante ASP.NET</description>
<item>
<title>Estructura de un RSS</title>
<link>http://wp.me/p1w1Ur-6G</link>
<description>Ejemplo de la estructura de un RSS básico</description>
</item>
</channel>
</rss>

La primera línea del documento es la declaración de XML que define la versión XML y la codificación de caracteres utilizados en el documento. En este caso, el documento se ajusta a la 1.0 especificación de XML y utiliza el conjunto de caracteres utf-8 .
La siguiente línea es la declaración RSS, que identifica que trata, de hecho, un documento RSS (más concretamente, RSS versión 2.0).

La siguiente línea contiene el elemento <channel> . Este elemento se utiliza para describir la fuente RSS. El elemento <channel> define tres elementos requeridos:

  • <title> : define el título del canal (por ejemplo, el nombre de su sitio Web)
  • <link> : define el hipervínculo al canal (por ejemplo, https://webnetarchitect.wordpress.com)
  • <description> : describe el canal (por ejemplo Tutorial para importar…)

Cada elemento de <channel> puede tener uno o más elementos de <item> . Cada elemento de <item> define un artículo dentro de la RSS feed.

El elemento <item> requiere tres elementos secundarios:

  • <title> : define el título del tema (por ejemplo, primer artículo)
  • <link> : define el hipervínculo al elemento (por ejemplo, http://wp.me/p1w1Ur-6G)
  • <description> – describe el elemento (por ejemplo, la descripción del primer artículo)

Primer paso: Comprobar tipos de datos en la tabla correspondiente de la base de datos.

En este ejemplo vamos a trabajar con la base de datos del Docu de la Universidad Cardenal Herrera CEU. Al trabajar con ASP.NET, lo normal es que las noticias se almacenen en la base de datos de Microsoft SQL Server. En nuestro caso, los artículos se almacenan en una tabla denominada DOCU_NOTICIA, que contiene los campos siguientes:

  • DNOT_Id : un campo de número entero de clave principal de incremento automático identificar de forma única cada artículo
  • DNOT_Titulo : un nvarchar(256), especifica el título del artículo.
  • DNOT_Autor : un nvarchar(50), especifica al autor del artículo.
  • DNOT_Cabecera : un nvarchar(500), proporcionando una descripción más detallada del artículo.
  • DNOT_Categoría: nvarchar(50), especifica la categoría del artículo.
  • DNOT_Texto: un ntext con el texto de la noticia.
  • DNOT_Imagen: un nvarchar(50), especifica la url de la imagen alojada en el servidor.
  • DNOT_Fecha – un datetime, indicando la fecha que publicó el artículo.

Nos hemos dejado otros campos de la tabla, pero los mencionados son los únicos que estamos interesados para utilizar en nuestro feed.

Segundo paso: Creación de un procedimiento almacenado para consultas a la tabla.

 Si no existe ya el procedimiento almacenado que realice las consultas a los campos de la tabla que necesitamos para generar nuestro RSS, tenemos que crearlo.

Para ello recomiendo instalar el SQL Server Management Studio Express 2008, que se puede descargar aquí.

 Para crear el procedimiento almacenado sp_obtener_DOCU_NOTICIA_todosRSS escribimos el siguiente código:

CREATE PROCEDURE [dbo].[sp_obtener_DOCU_NOTICIA_todosRSS]
AS
SET TRANSACTION ISOLATION LEVEL READ COMMITTED
SELECT
[DNOT_Id] as [id],
[DNOT_Titulo] as [title],
[DNOT_Cabecera] as [header],
[DNOT_Texto] as [description],
[DNOT_Fecha] as [pubDate],
[DNOT_Categoria] as [category],
[DNOT_Imagen] as [image],
[DNOT_Autor] as [author]
FROM
[dbo].[DOCU_NOTICIA]
ORDER BY [DNOT_Fecha] DESC


Tercer paso: Creación de un ConnectionString en el web.config

En nuestro proyecto en ASP.NET depositamos la información de configuración de todos nuestros proyectos, incluidos los parámetros de conexión con nuestra base de datos, en una clase llamada Conexiones. Al guardar la información de la cadena de conexión, vamos a evitar tener que codificar en el archivo de código subyacente. Esto simplifica las cosas, si cambia la información de la cadena de conexión en el futuro. El método de esa clase que contiene la información es en concreto el siguiente (oculto id de usuario y contraseña por razones obvias):

public static System.Data.SqlClient.SqlConnection Conectar()
{
SqlConnection sqlConn = new SqlConnection();
sqlConn.ConnectionString = "Server=webnet;Database=WEB;" +
"User ID=******;Password=******;" +
"Trusted_Connection=False";
return sqlConn;
}

Cuarto paso: Creación de una página rss.aspx

 El siguiente paso es crear una página Web en ASP.NET (rss.aspx) que mostrará una lista de las noticias más recientes como un documento con formato correcto de RSS 2.0. En el Solution Explorer, hay que hacer clic en el nombre del proyecto y, a continuación, hacer clic en Add New Item. Posteriormente en el cuadro de diálogo templates, hay que hacer clic en Web Form.

En el cuadro Name , escribimos un nombre para la nueva página Web (rss.aspx) y, a continuación, hacmos clic en Add.

Lo primero que debemos hacer en la página es quitar todos los controles de marcado o web HTML  y, a continuación, establecer la propiedad ContentType de la directiva @pagetext/xml“.

Después de borrar todo el marcado HTML, agregamos el nombre del método que programaremos posteriormente en el fichero rss.aspx.cs que también se ha creado. Éste es es aspecto de la página rss.aspx , después de haber hecho algunos cambios:

<%@ Page Language="C#" ContentType="text/xml" AutoEventWireup="true" CodeBehind="rss.aspx.cs" Inherits="rss" %>
<% = obtenerNoticiaRSS() %>

En el fichero rss.aspx.cs implementamos en C# el método que hemos invocado en el formulario. En primer lugar debemos recuperar los datos de la base de datos, llamando al procedimiento almacenado que hemos creado anteriormente. Éste es el código que abre la conexión a la base de datos e introduce los datos en un contenedor de datos.
public static void obtenerNoticiaRSS()
{

Llamamos aquí al método Conectar de la clase Conexiones que hemos visto antes.

SqlConnection connWebceuWeb = Conexiones.Conectar();

El fichero se guardará en la carpeta RssDocu y en la subcarpeta de la fecha actual.

String fechaDir = DateTime.Now.Day.ToString() + "_" + DateTime.Now.Month.ToString() + "_" + DateTime.Now.Year.ToString();
String path = @"C:\temp\";
DirectoryInfo di = Directory.CreateDirectory(path + @"\RssDocu\" + fechaDir);
String ruta = path + @"\RssDocu\" + fechaDir;
FileInfo fichero = new FileInfo(ruta + @"\" + "RssDocu.xml");
StreamWriter sr = fichero.CreateText();
try
{
SqlCommand cmdObtenerNoticias = new SqlCommand();
cmdObtenerNoticias = new System.Data.SqlClient.SqlCommand();
cmdObtenerNoticias.CommandText = "dbo.[sp_obtener_DOCU_NOTICIA_todosRSS]";
cmdObtenerNoticias.CommandType = System.Data.CommandType.StoredProcedure;
cmdObtenerNoticias.Connection = connWebceuWeb;
SqlDataAdapter da = new SqlDataAdapter();
if (connWebceuWeb.State == ConnectionState.Closed) {
connWebceuWeb.Open();
}
da.SelectCommand = new SqlCommand();
da.SelectCommand = cmdObtenerNoticias;
DataSet ds = new DataSet();
da.Fill(ds);
DataView dv = ds.Tables[0].DefaultView;

A continuación hay que incluir el código que nos muestre el contenido de las etiquetas que forman la estructura xml del RSS. Además de mostrarlo en el formulario lo guardaremos en un fichero de texto, que será el que podremos importar posteriormente. Utilizaremos un objeto de C# StreamWriter, que hemos instanciado previamente llamándolo sr.
sr.Write("<?xml version=\"1.0\" encoding=\"utf-8\"?>");
sr.Write("<rss version=\"2.0\" xmlns:blogChannel=\"http://www.uchceu.es\" ");

Añadimos todos los espacios de nombres que consideramos interesantes.
sr.Write("xmlns:content=\"http://purl.org/rss/1.0/modules/content/\"\n");
sr.Write("xmlns:wfw=\"http://wellformedweb.org/CommentAPI/\"\n");
sr.Write("xmlns:dc=\"http://purl.org/dc/elements/1.1/\"\n");
sr.Write("xmlns:atom=\"http://www.w3.org/2005/Atom\"\n");
sr.Write("xmlns:sy=\"http://purl.org/rss/1.0/modules/syndication/\"\n");
sr.Write("xmlns:slash=\"http://purl.org/rss/1.0/modules/slash/\">\n");
sr.Write("<channel>\n");
sr.Write("<title>Docu. La revista de la Universidad CEU Cardenal Herrera.</title>\n");

El espacio de nombres atom:link incluye el link a la página del rss
sr.Write("<atom:link href=\"http://blog.uchceu.es/docu/rss.aspx\" rel=\"self\" type=\"application/rss+xml\" />\n");
sr.Write("<link>http://www.uch.ceu.es/principal/docu</link&gt;\n");
sr.Write("<description>");
sr.Write("Este RSS sirve para suscribirse a las noticias del DOCU de la Universidad CEU Cardenal Herrera.");
sr.Write("</description>\n");

La etiqueta LastBuildLate sirve para ver si se puede incluir dinámicamente, pero en este caso la hemos dejado vacía.
sr.Write("<lastBuildLate>");
sr.Write("");
sr.Write("</lastBuildLate>\n");

Indicamos lengua en que está escrita la información.
sr.Write("<language>");
sr.Write("es");
sr.Write("</language>\n");

Añadimos modulo “syndication”.
sr.Write("<sy:updatePeriod>");
sr.Write("hourly");
sr.Write("</sy:updatePeriod>\n");
sr.Write("<sy:updateFrequency>");
sr.Write("1");
sr.Write("</sy:updateFrequency>\n");

También el módulo generador.
sr.Write("<generator>");
sr.Write("http://wordpress.org/?v=3.1");
sr.Write("</generator>\n");

Abrimos un bucle que recorre la tabla.
for (int i = 0; i < dv.Table.Rows.Count; i++)
{
sr.Write("<item>\n");
sr.Write("<title><![CDATA[ ");
string tituloNot = dv.Table.Rows[i]["title"].ToString();
tituloNot = tituloNot.Replace("<b>", "");
tituloNot = tituloNot.Replace("</b>", "");
sr.Write(tituloNot);
sr.Write("]]></title>\n");

A continuación escribimos la etiqueta <link> pero la dejamos vacía porque no podemos clasificar segun el id de las noticias, ya que las va a clasificar wordpress según sus algoritmos.
sr.Write("<link>");
sr.Write("</link>\n");

Añadimos la fecha de publicacion, la convertimos a string, y obtenemos subcadenas para obtener día, més y año. También podríamos haber recurrido a métodos del objeto string.
DateTime fecha = DateTime.Parse(dv.Table.Rows[i]["pubdate"].ToString()).
string strDia = fecha.Date.DayOfWeek.ToString();
strDia = strDia.Substring(0, 3);
string strMes = devolverMes(fecha.Month);
string strFecha = strDia + ", " + fecha.Date.Day.ToString() + " " + strMes + " " + fecha.Date.Year.ToString() + " " +   fecha.Date.TimeOfDay.ToString() + " GMT";
sr.Write("<pubDate>" + strFecha + "</pubDate>\n");

Añadimos el autor  mediante el espacio de nombres de Dublin Core.
sr.Write("<dc:creator><![CDATA[");
if (dv.Table.Rows[i]["author"].ToString() != "")
sr.Write(dv.Table.Rows[i]["author"].ToString());
else sr.Write("Administrador");
sr.Write("]]></dc:creator>\n");
sr.Write("<category>");
sr.Write(dv.Table.Rows[i]["category"].ToString());
sr.Write("</category>\n");

De nuevo, ponemos <guid> en blanco porque no podemos clasificar segun el id
sr.Write("<guid isPermaLink=\"false\">");
sr.Write("");
sr.Write("</guid>\n");

Añadimos el texto de las noticias.
sr.Write("<description>");
sr.Write(dv.Table.Rows[i]["header"].ToString() + "\n");
sr.Write("</description>\n");

Añadimos la etiqueta content:encoded,que incluye las imágenes y los vídeos. Es importante reemplazar algunos caracteres que influirán negativamente en la visión de la noticia importada.
string cabecera = dv.Table.Rows[i]["header"].ToString();
cabecera = cabecera.Replace("  ", "");
cabecera = cabecera.Replace("\n", "");
cabecera = cabecera.Replace("\r", "");
string descripcion = dv.Table.Rows[i]["description"].ToString();
descripcion = descripcion.Replace("\n", "");
descripcion = descripcion.Replace("\r", "");
sr.Write("<content:encoded>");
sr.Write("<![CDATA[");
if (dv.Table.Rows[i]["image"].ToString() != "")
{

En nuestra base de datos se han colado etiquetas innecesarias. por ejemplo la eqtiqueta <b> de los alt de las imagenes. Si os ocurre algo similar en vuestras bases de datos, tendréis que reemplazarlos como hacemos aquí.
string titulo = dv.Table.Rows[i]["imageTitle"].ToString();
titulo = titulo.Replace("<b>", "");
titulo = titulo.Replace("</b>", "");

Es muy importante cambiar las rutas de las imagenes si las vamos a subir al servidor de WordPress.
string urlImagen = dv.Table.Rows[i]["image"].ToString();
urlImagen = urlImagen.Replace("archivos_subidos/imagenes/", "/wp-content/uploads/docu/");
sr.Write(cabecera);
sr.Write("<p><img alt='" + titulo + "' src='" + urlImagen + "'/></p>");
sr.Write("<p>" + dv.Table.Rows[i]["imageDesc"].ToString()  + "</p>");
sr.Write(descripcion);
sr.Write("]]></content:encoded>\n");
}
else
{
sr.Write(cabecera);
sr.Write(descripcion);
sr.Write("]]></content:encoded>\n");  }
if (dv.Table.Rows[i]["file"].ToString() != "")
{
sr.Write("http://blog.uchceu.es/wp-content/uploads/docu/" + dv.Table.Rows[i]["file"].ToString();
}
sr.Write("</item>\n");
}
sr.Write("</channel>\n");
sr.Write("</rss>\n");
}
catch (Exception ex)
{
Utilidades.Utilidades.mandarMail("desarrolloweb@uch.ceu.es", "anonimo@uch.ceu.es", "No se puede escribir RSS : " + ruta, ex.Message);
}
finally
{
if (connWebceuWeb.State == ConnectionState.Open)
{
connWebceuWeb.Close();
}
if (sr != null)
{
sr.Close();
}
}
}

Resultados:

Este ejemplo pertenece al Docu de la Universidad Cardenal Herrera CEU. Tras aplicar el código para importar el RSS en la plataforma WordPress que creamos y diseñarlo a nuestro gusto se han obtenido los resultados que podéis ver en la Página del Docu.

También se ha aplicado el mismo método para importar el contenido de la página SalaPrensa, y próximamente se aplicará a todos los blogs antiguos de la Universidad Cardenal Herrera CEU.

Un saludo.

Entrevista con Paul Cotton (II): “En el futuro hablaremos no por teléfono sino por la Xbox”

En mi afán por seguir obteniendo y mostrando novedades sobre html5, continuo  con la publicación de la entrevista que Genbeta ha hecho a Paul Cotton. En la primera parte, el director del equipo interoperabilidad de Microsoft nos dejó unas reflexiones más que interesantes. Entre ellas, el porqué de la apuesta en exclusiva para Windows de Internet Explorer, el estado de desarrollo de HTML5 o su opinión sobre Chrome OS.

En esta segunda, aparte de seguir comentándonos aspectos sobre su trabajo en el mundo de los estándares (recordemos que es miembro del grupo de trabajo de W3C sobre estos temas), conversaron sobre cómo ve el futuro de Internet Explorer, especialmente tras la compra de Skype o la irrupción de Kinect. E incluso se atreve a hablar un poco de la navegación “en la nube” como gran apuesta a medio plazo para Internet.

Genbeta: En el pasado W3C, Microsoft presentó Same Markups. Fue algo realmente impactante y novedoso. ¿Crees que es el primer paso para que en el futuro todos los navegadores muestren y hagan funcionar las páginas web de igual manera?

Paul Cotton: Es el primer paso. Hay otras partes del HTML5 también importanes. Same Markups es algo clave, pero hay otros pequeños aspectos de HTML5 que también lo puede ser. Pero si Same Markups está mal, todos los navegadores tendrian un el mismo fallo. Same Markups tiene las dos vertientes, la positiva y la negativa. Una pagina web mal construida tendrá unos errores en IE y otros en Mozilla. Queremos que si el desarrollador se equivoca en su página, en su desarrollo, tenga el mismo mensaje que cuando lo estaba probando.

Genbeta: Sobre los estándares, nosotros sólo vemos el trabajo en la implementación en los navegadores. ¿Cuál es el trabajo que está detrás de todo el mundo de los estándares y el W3C?

Paul Cotton: Mi equipo lleva trabajando en esto del W3C los 11 años que llevo en Microsoft. En W3C se encuentra el equipo de trabajo centrado en Windows, el de Internet Explorer y el mío. Trabajamos juntos para Microsoft y estamos siempre hablando vía e-mail.
Creo que la gente no valora todos las pruebas que hacemos. En Redmond hay una sala con un superordenador formado por cientos de ordenadores, cada uno corriendo una o varias versiones de Windows para hacer tests. En el aŕea de Internet Explorer, cada vez que un equipo está produciendo nuevo código, se hacen pruebas regresivas.
Lo que no ve en lo que llamamos “hard engineering” de construir un navegador es hacer un montón de tests. Por ejemplo, grupos de trabajo con las últimas versiones de CSS hacen más de 9000 pruebas para comprobar que funciona. Es un número alto, pero es que 6000 pueden no ser suficientes.
En Microsoft tenemos 3 tipos diferentes de ramas: los desarrolladores, los programadores y los probadores. Y los probadores son tan de primera clase como los otros.

Genbeta: Tras dos de las últimas incorporaciones a Microsoft, la compra de Skype y la consolidación y el éxito de Kinect, la gente tiene muchas esperanzas en su integración en Internet Explorer. ¿Ves posible lo que algunos sueñan de un navegador que se controle con voz y gestos, como las interfaces de la película Minority Report?

Paul Cotton: Os cuento mi experiencia. Tengo una Xbox 360 con Kinect. Y mucha gente no se da cuenta de que aparte de interpretar posiciones y gestos, también tiene reconocimiento facial. Unir esto a la tecnología de VoIP de Skype puede ser genial. Me imagino estar sentado en mi sofá, con mi Tablet con Internet Explorer, -con el que puedo controlar lo que hay en la TV – viendo un vídeo y mirar a la TV, que me reconozca Kinect y decir “¡Llama a mamá!”, y que lo haga.
Yo vivo en Ottawa, Canadá, y tengo que viajar un montón a Redmond. Y una de las cosas que más uso para comunicarme es un sistema de VoIP. Pero ahora también tenemos herramientas que, por ejemplo, si nos mandan un e-mail y hago click en la persona que me lo ha enviado, puedo chatear con él. Y trasladar esa experiencia al cuarto de estar, enfrente de la televisión, cambiará un montón de cosas.

Genbeta: ¿Crees que es posible que veamos esto, en 3 o 4 años, en millones de casa por todo el mundo?

Paul Cotton: Ha habido una magnifica adopción de Kinect, esa máquina capaz de reconocer nuestros movimientos. Ya puedes conectar tu PC a la Xbox. Y vas a tener una conexión con tu calendario, y llamar a tus contactos. Podré hacer una videoconferencia sin un dispositivo físico, sin tener que tocar nada.
Hay un enorme potencial. Y podría decirlo incluso como simple usuario, estoy impactado. Ví Kinect en una feria científica que organizó Microsoft hace 4 años. En otra ví Microsoft Surface. Y convertir un aparato que formaba parte de una investigación en algo que se vende de forma masiva al gran público es increíble.

Genbeta: Una de las nuevas cosas de HTML5 es HTML.Next ¿Cómo crees que va a evolucionar en el futuro?

Paul Cotton: Cuando Google sacó Gmail, se dieron cuenta de que necesitaban SQL, WebSQL. Cuando preguntamos a nuestros desarrolladores qué querían sobre este asunto nos comentaron cosas similares. La mayoría de mis aplicaciones son mucho más sencillas. Mozilla ha trabajado con Oracle sobre este aspecto, por ejemplo.
Los desarrolladores quieren tener un “client store”. Tenemos 4 prototipos de indexados en los HTML5Labs en la Last Call, para ser estables y hacer aplicaciones de ellos. Los Client Stores son claves y van a abrir muchas posibilidades.

Genbeta: Para finalizar, una última pregunta no tanto sobre Internet Explorer sino sobre el futuro de Internet. Algunos expertos, cada vez más, apuntan a que el mañana de la web pasa por la navegación “en la nube” y que la era de soportes físicos y discos duros es cosa del pasado. ¿Tú qué opinas sobre este tema?

Paul Cotton: Bueno, yo paso muchísimo tiempo navegando en la nube. Sin duda, para muchos clientes que lo usan en vez de otras opciones es el futuro. Yo apuesto por la “cloud computing” porque realmente puede ahorrar mucho dinero si invertimos en ella, pues solo habrá que pagar al proveedor de la “nube”. Va a ser muy importante próximamente.
Creo que vamos a movernos hacia dispositivos como el iPod Touch, que parecen un teléfono pero no lo son. No son un teléfono pero tienen conexión a Internet. Apple ha creado un nuevo mercado. La gente lo usa muchísimo. Me imagino en un futuro próximo a la gente usando estos aparatos, viendo un vídeo; y haciendo un gesto como deslizar la mano sobre la pantalla y entonces salta a tu TV y lo podrás ver allí. Nadie anticipó esta gran oportunidad.
Esto es una de las cosas que hace tan grande el W3C, es un regalo para todos nosotros y hace públicas cosas de las que se puede beneficiar toda la sociedad.
No podemos siquiera soñar todas las cosas que nos esperan. Hace poco descubrí en el W3C un grupo de trabajo que iba a convertir los juegos típicos de PC o del estilo Halo a una plataforma como HTML5. Puede que en el futuro cuando le preguntemos a un usuario de este tipo de plataformas portátiles a qué juega más nos responda Angry Birds, pero es posible que nos diga que es uno de estos juegos originalmente nativos de PC.

Hasta aquí la entrevista con Paul Cotton. Buen trabajo por parte de los entrevistadores de Genbeta, aunque esta última parte ha sido más un reclamo publicitario de los nuevos productos de Microsoft que el anuncio de las características de las tecnologías venideras que buscaba cuando empecé a leer. Supongo que no podíamos pedir un poco más de imparcialidad o que se mojara un poco más contestando a las preguntas sobre temas ajenos a su compañía, aunque habría sido de agradecer.

No obstante, repito, buena entrevista.

Fuente: http://www.genbeta.com

Entrevista de @genbeta a Paul Cotton, miembro del grupo de trabajo de HTML5 del W3C. Primera parte.

Con la intención de empezar a conocer todo lo relacionado sobre HTML5, voy a ir publicando cada una de las partes que @genbeta ofrece sobre la entrevista que ha hecho a Paul Cotton, director del equipo de interoperabilidad de Microsoft, que se encarga de la parte de HTML y tecnología en la nube, y además miembro del grupo de trabajo del W3C que se encarga de los estándares web.

Esta primera parte trata sobre la integración de estándares en Internet Explorer, sobre HTML5 y sobre lo que podríamos tener en el futuro gracias a las nuevas tecnologías. Paul tiene una visión muy clara de la web y de sus tecnologías, y sus respuestas han sido muy interesantes.

Genbeta: Hace años veíamos como IE tradicionalmente tenía etiquetas y características propias que lo hacían de todo menos estándar, viendo Webs diseñadas únicamente para IE. ¿Qué impulsó a Microsoft a comenzar a implantar estándares en sus productos?

Paul Cotton: Bueno, creo que tenemos que ver un poco de historia, qué ha ocurrido con el W3C y los estándares. Lo que ocurrió es que el W3C se centró demasiado en XHTML, y esto impulsó a crear el WHATWG, organización que se puso a trabajar con HTML5. Hace unos cinco años, ese grupo decidió devolver HTML5 al W3C, principalmente por la protección de los socios. Eso dio a Microsoft la oportunidad de volver al escenario entrando en el grupo de trabajo de HTML5. Fue una gran oportunidad para Microsoft, y mostramos un montón de interés en todas las tecnologías de HTML5. Hay otro aspecto de los estándares que es muy importante para Microsoft: la establidad de las especificaciones. Si queremos que todo funcione igual independientemente del navegador, necesitamos que la especificación no cambie continuamente, y eso sólo lo podemos conseguir en el W3C trabajando de forma multilateral con el resto de navegadores.

Genbeta: Ahora mismo, ¿cuáles son las diferencias más significativas en la implementación de HTML5 entre IE y el resto de navegadores?

Paul Cotton: Algunos de los otros navegadores son earlier adopters. No es malo, depende sobre todo de tu audiencia, del tipo de usuarios del navegador. Muchos de los clientes de Microsoft no esperan cambiar la web cuando la especificación cambie. El ejemplo perfecto es WebSockets, que permite una comunicación bidireccional con el servidor. El problema es que no ha sido estable. Algunas versiones rompieron la compatibilidad con las anteriores, obligando a recodificar las páginas. Por eso, la establidad es clave. No voy a decir que ser un early adopter es malo, sólo que depende de la audiencia. Hay un precio que pagar para poder probar esas tecnologías antes que nadie.

Genbeta: Microsoft ha dicho que todavía no va a implementar algunas partes de HTML5, como WebSockets. ¿Qué partes son, y por qué?

Paul Cotton: Por ejemplo, un buen número de las especificaciones de CSS3 no están en IE9. Sin embargo, en la Platform Preview que enseñamos en MIX hay bastantes implementadas. En otros, como WebSockets, esperaremos a que la especifación se estabilice. Nuestros dos criterios para implementar algo en IE son estabilidad y peticiones de clientes. Si no estable o no tenemos muchas peticiones de clientes, no desarrollamos esa implementación.

Genbeta: Ahora todo el mundo habla de los nuevos estándares, de HTML5, CSS3… ¿Qué nos aportan a nosotros estos estándares como usuarios? ¿Qué se puede hacer con ellos que no se pudiese hacer antes?Todos los navegadores principales son multiplataforma. ¿Tiene IE algún plan parecido?

Paul Cotton: Nos concentramos en lo que hacemos mejor. Queremos hacer un navegador que saque lo mejor de la plataforma Windows. Creemos que hay un montón de sitio para otros actores como Mozilla u Opera que quieren llevar el navegador al mayor número de plataformas posibles. El problema de eso es que tienes que ir al mínimo común. Con IE, podemos centrarnos en el entorno que conocemos mejor. El resultado es una experiencia increíble, como por ejemplo con la aceleración de hardware. También nos estamos centrando en Windows Phone, para que sus usuarios tengan una experiencia web perfecta.

Genbeta: Ahora todo el mundo habla de los nuevos estándares, de HTML5, CSS3… ¿Qué nos aportan a nosotros estos estándares como usuarios? ¿Qué se puede hacer con ellos que no se pudiese hacer antes?

Paul Cotton: Creo que una de las cosas más interesantes es WebSockets. Cuando funcione, va a ser un cambio de paradigma. Tendremos capacidades de tiempo real en la web, algo muy interesante. En realidad, la mayoría son cosas simples. Por ejemplo, los nuevos elementos que ayudan a describir el contenido van a hacer la búsqueda muchísimo más potente. También hay APIs muy útiles, como la API File.

Genbeta: Acabamos de ver a Google lanzar una línea de ordenadores alrededor de un navegador convertido en SO. ¿Qué piensas en cuanto a HTML reemplazando todo el SO?

Paul Cotton: Es una estrategia corporativa interesante. Cuantos más ojos lleve a Internet, más se lleva por anuncios. Así que cuantas más cosas se puedan hacer en Internet, mejor para ellos. Productos como Gmail son ideas innnovadoras, en el sentido de que la gente ha intentado llevar a cabo esas ideas antes pero no han tenido éxito. A nosotros nos gusta la competencia, y de hecho estamos compitiendo con la plataforma web de Office. Pero el núcleo de la pregunta es: ¿podemos crear un sistema operativo con HTML5? Es una pregunta difícil. Por ejemplo, en Windows hay unas 20.000 APIs. Eso es porque Windows ofrece una funcionalidad muy rica a través de .NET. Sin embargo, ¿cuántas son realmente necesarias para que un desarrollador pueda crear su programa en la nube? No creo saber la respuesta. También hay otro aspecto: los usuarios no se preocupan de si es una web o una aplicación. Creo que es una zona donde Microsoft y Google van a competir de forma bastante agresiva.

Genbeta: HTML5 es todavía un borrador, no un estándar completo del W3C. ¿Cuándo cree que tendremos la versión final?

Paul Cotton: Habéis sacado mi mejor respuesta. Ahora mismo, hay una encuesta que abrimos el domingo 15 para llevar el estado de HTML5 a Last Call, tal y como estaba planeado desde agosto. La encuesta se cierra el domingo 22, y si tiene éxito (que parece que lo tendrá) habría que esperar unos 12 meses para pasar los dos Last Call y estabilizar la especificación. Hay que tener en cuenta también a los nuevos miembros en el W3C, como los fabricantes de televisores o incluso Disney, así que tendremos bastantes comentarios en el primer Last Call y como resultado seguramente salga un segundo Last Call. El último estado es la “llamada a la implementación”. Ahí necesitaremos una suite de tests. Deberíamos tener entre 75.000 y 100.000 tests, así podemos asegurar la compatibilidad entre todos los navegadores. En resumen, HTML5 podría llegar en 2014. Sin embargo, cuando HTML5 esté hecho, estaremos preparando lo que hemos llamado HTML.Next. Es decir, que HTML nunca va a estar acabado.

Hasta aquí la primera parte de la entrevista. la segunda incluirá preguntas sobre HTML5 y el W3C, e incluso alguna relacionada con Minority Report.

Fuente: http://www.genbeta.com/

Desarrollar un portal a medida o usar un CMS prefabricado

Cuando una persona o empresa tiene la necesidad de hacer un portal en internet encontrara proveedores que ofrecen dos tipos de soluciones. La primera, basada en eldesarrollo del portal desde cero, es decir, a la medida; y otra, usando CMS (Manejadores de contenidos prehechos) como Joomla, Drupal, Liferay o WordPress (estos dos últimos probados personalmente), entre otros. Existen muchísimos escenarios y la solución dependerá de la necesidad que presenta. A continuación comentaremos qué ventajas tiene una solución en cuanto a la otra y cuando es mejor hacer uso de alguna de las 2 opciones presentadas.

Un CMS es un sistema prefabricado que con solo minutos se puede publicar un sitio en internet con un costo mínimo o totalmente gratis. Aunque también dan lugar a desarrollos complejos si se desea y se dispone de recursos y presupuesto para test.

Ventajas de los CMS:

  • Rápida Implementación: existen miles de desarrolladores aportando a una comunidad, prefabricando módulos que pueden ser adaptados a cualquier portal que use el CMS. Los Widgets ( WordPress) y los Portlets (Liferay), son realmente fáciles de usar.
  • Bajos Costos: Debido a que la mayoría de los módulos están realizados, los tiempos de adaptación son bajos y por ende los costos también.
  • Esto no impide que puedas acceder a los CSS y al código php, así como gestionar tu base de datos MySQL a través de Apache o de IIS, si trabajamos con wordpress.org. Liferay permite usar Hibernate para acceder a bases de datos (DB2, HSQLDB, MySQL, Oracle, PostgreSQL…) a través de servidores JBoss, Tomcat, Glassfish, etc, así como el uso de JSF, Struts, Facelets…

Desventajas de los CMS:

  • Seguridad: así como existen comunidades desarrollando para estas plataformas existen comunidades dedicadas a encontrar vulnerabilidades de tal manera que al encontrar una,  nos damos cuenta que muchos portales que usan el CMS no están en línea. WordPress ha sufrido algunas reconocidas públicamente estos últimos días.
  • Extensibilidad: Cualquier funcionalidad que se requiera a la medida porque no existe en la comunidad es mucho más difícil de integrar ya que el desarrollo debe ser adaptado al CMS y pasa muchas veces que la plataforma impide dicha adaptación.
  • Performance: Los CMS son plataformas muy genéricas que tratan de adaptarse a todas las necesidades, por ser tan genérico las consultas a las base de datos y el procesamiento que estas plataformas hacen son muchas, por lo tanto a medida que la plataforma tenga más datos la plataforma se va poniendo cada vez mucho más lenta.

En fin, si su necesidad es básica y la necesita lo más pronto posible es muy buena opción usar cualquiera de los más populares CMS.

Desarrollo a medida

Un portal a la medida es un sistema hecho desde cero 100% a las necesidades del cliente.

Ventajas de un desarrollo a medida:

  • Extensibilidad: al tener control en un 100% del código fuente del software y tener una arquitectura a la medida cualquier funcionalidad puede ser desarrollada sin ningún problema.
  • Seguridad: Todos los parámetros de seguridad en el software pueden ser configurados sin ningún problema y se puede programar cualquier funcionalidad para prevenir ataques.
  • Performance: Las consultas a la base de datos y el código realizado por estar hecho a la medida solo se usa lo necesario, por lo tanto solo se ejecuta lo que se necesita haciendo que el sitio sea más rápido.
  • Alto nivel de personalización: cualquier adaptación a nivel del diseño, programación, SEO y cualquier elemento que esté dentro del software puede ser personalizado sin ningún problema.
  • Evolución con la empresa: a medida que la empresa evoluciona el software puede evolucionar junto a la empresa.
  • No hay límites: cualquier necesidad tecnológica puede ser adaptada sin ninguna restricción.
  • Integraciones: si se quiere que el software se integre con data de otra aplicación no hay ningún problema. Si se quiere compartir la data de la aplicación con un tercero se pueden desarrollar todos los mecanismos seguros de integración.

Desventajas de un desarrollo a medida:

  • Tiempos: por ser hecho todo desde 0, los tiempos son mucho más largos.
  • Costos: por la misma razón de que los tiempos de desarrollo son más largo y se necesita personal capacitado para el desarrollo, los costos también son más altos.

En fin, si necesitan una solución que tenga que ir creciendo a medida que evolucione su empresa, el desarrollo a la medida es su mejor opción. Si necesita que su aplicación sea segura y que nadie acceda a información privada cerciórese de que su aplicación sea segura y confiable.

Fuente: http://www.readwriteweb.es/

El gran día de la red de redes

el gran día de la red de redes

  • El 17 de mayo se celebra el Día de Internet, una iniciativa que busca impulsar el uso y desarrollo de las nuevas tecnologías.
  • En esta edición se debatirá su papel en la defensa de los Derechos Humanos.

Noviembre de 1969. Las universidades de UCLA y Stanford logran un hito histórico al conectarse entre sí. Fue la culminación del proyecto Arpanet, un sistema nacido en plena guerra fría con fines militares -y como respuesta directa al lanzamiento del Sputnik por parte de la URSS- que irrumpía con fuerza en la vida civil, dando luz verde a una idea ambiciosa, casi de ciencia-ficción: crear una red de ordenadores que conectase el mundo entero.

Nueve años antes, el fundador de Arpanet y uno de los padres de lo que hoy se conoce como Internet, J. C. R. Licklider, ya había imaginado la revolución que estaba por venir. Lo hizo en un documento en el que vaticinó el desarrollo de “una red de ordenadores conectados mediante líneas de comunicación de banda ancha que proporcionan las funciones de las bibliotecas, avances en el guardado y adquisición de información”. Todo un visionario.

Hoy apenas somos capaces de imaginar la vida sin Internet como herramienta de comunicación, hasta el punto de que el mundo se colapsaría si durante un breve periodo de tiempo los ordenadores del planeta dejasen de estar conectados. El correo electrónico, las redes sociales y la inmediatez de Internet forman ya parte de nuestras vidas. Vivimos interconectados en red.

Para reivindicar el acceso universal a la Red de redes, potenciar su uso y acercarla a los que aún no disfrutan de ella nació en 2005 el Día de Internet. El proyecto, puesto en marcha en España por la Asociación de Usuarios de Internet y promovido actualmente por la Comunidad Iberoamericana de Naciones, goza hoy día de gran repercusión. Parte de ese auge se debe a la designación en 2006, por parte de la ONU, de la misma fecha como el Día Mundial de la Sociedad de la Información, y cuyos objetivos coinciden con los del Día de Internet concebido un año antes. A lo largo de este martes, al menos 23 países celebrarán la cita de manera simultánea con centenares de actividades. Una gran fiesta nacida por y para el desarrollo de la Red.

Hay motivos para ponerse manos a la obra: España está a la cola de Europa en acceso a Internet. En solo dos años nuestro país ha caído cuatro puestos en el índice de desarrollo mundial de la sociedad de la información. Actualmente, el 59% de los hogares españoles están conectados a Internet, una cifra similar a la de Italia, pero aún lejana a la media europea (70%) y a años luz de la de países como Holanda o Noruega, donde se sitúa en torno al 90%.

El muro de los derechos

Censura, libertad de expresión, derecho a la privacidad… El debate está servido. Esta nueva edición del Día de Internet está dedicada al papel de la Red en la defensa de los derechos humanos. Por ello, el pasado mes de abril se puso en marcha en la web oficial el llamado “muro de los derechos”, una iniciativa en la que se invitaba a los internautas a colgar sus reflexiones sobre el papel de Internet en materia de derechos humanos. Las 300 propuestas colgadas en forma de post-it virtuales, y referentes a temas dispares como seguridad, privacidad, infancia o trabajo, se debatirán en el Senado español.

Uno de los colectivos que más dificultades encuentra a la hora de disfrutar de las ventajas de la sociedad de la información es el de las personas discapacitadas. En ese sentido, la Once pide luchar contra el peligro de que “las redes sociales e Internet se conviertan en una barrera más para las personas con discapacidad”. La organización quiere reivindicar que los nuevos avances en el mundo de las comunicaciones y la sociedad de la información en la que vivimos “no se hagan de espaldas a las personas con discapacidad”. El objetivo: una Red de todos y para todos.

Grandes hitos de Internet

  • 1969 Las universidades de UCLA y Stanford (ambas, en California, EE UU) se conectan mediante sendos nodos. Es la prehistoria de lo que hoy conocemos como Internet.
  • 1971 Ray Tomlinson crea el primer programa para enviar y recibir correo electrónico. Hoy en día sigue siendo la principal vía de comunicación a través de la Red.
  • 1990 El británico Tim Berners-Lee inventa la World Wide Web, que habilitó los dominios con letras en lugar de los complejos códigos IP que identificaban a cada PC conectado.
  • 1995 Dos estudiantes de Stanford ponen en marcha Google, que pronto se convertirá en el gigante de los buscadores.
  • 2001 Estalla la burbuja de las punto com, que había arrancado en 1997.
  • 2004 Mark Zuckerberg idea Facebook, la actual reina mundial de las redes sociales. Solo en España tiene más de 15 millones de usuarios.
  • 2006 Nace Twitter, la red de microblogs (mensajes de 140 caracteres) que ha revolucionado la forma de comunicarse. 3,1 millones de españoles la usan.

Actividades en toda España

La geografía española se llena hoy de iniciativas para conmemorar el Día de Internet. Habrá talleres, reuniones de tuiteros, premios, conferencias y actividades para niños. Todas ellas se pueden consultar en la web del Día de Internet. Además, varias plataformas aprovechan la cita para poner en marcha sus proyectos: hoy nace Facecoop, la primera red social solidaria, y la Fundación Vicente Ferrera estrena su web.

Fuente:  http://www.20minutos.es

¿Cuáles son las tecnologías que transformarán su vida en los próximos 25 años?

Las predicciones de los principales laboratorios de investigación del mundo anticipan un futuro donde las máquinas hablarán con usted, existirá la telepresencia en 3D y la robótica omnipresente, donde los límites entre lo real y lo virtual se borrarán. Los 20 desarrollos que van a sorprenderlo

tecnologías

Imagine un mundo donde las computadoras, las redes y los sistemas de almacenamiento informático son decenas de miles de veces más rápidos que en la actualidad, y luego piense, como si fuera un autor de ciencia ficción, las  aplicaciones que serían posibles en ese entorno.

No se preocupe, el trabajo ya lo hizo la prestigiosa revista estadounidense Network World, que repasó los principales desarrollos de laboratorio que podrán transformar al mundo en los próximos 25 años.

Los expertos dicen que el ritmo general de la innovación en la industria de tecnologías de la información (TI) se acelerará, lo que resultará en una amplia y alucinante serie denovedades en áreas tales como máquinas parlantes, la telepresencia en tres dimensiones (3D) y la robótica en el mundo real.

Estos cambios van a revolucionar a las industrias, incluida la atención sanitaria, la planificación urbana, la energía, el comercio minorista electrónico y el entretenimiento.

Aquí, los 20 desarrollos que transformarán al mundo:

Procesadores ópticos reemplazarán a la microelectrónica.

La ley de Moore, la famosa predicción creada en 1965 por el cofundador de Intel, Gordon Moore, dice que el número de transistores colocados en un circuito integrado (chip) se duplica cada dos años.

Pero esta norma está llegando a sus limitaciones físicas. Por lo tanto, nuevos planteamientos radicales, como la computación óptica, son necesarios para desarrollar e impulsar avances en los procesadores y la memoria de las PC.

Con estos chips ópticos en las máquinas, se podrá utilizar la luz visible o los rayos infrarrojos en lugar de corrientes eléctricas para realizar cálculos.

“Si la gente quiere una computadora más barata y más rápida, lo que vamos a hacer es buscar otros caminos”, además de la electrónica, dijo Donald Newell, director del área de servidores de AMD, fabricante de chips.

“Un equipo óptico tiene dos propiedades muy agradables. Una, que utilizará una cantidad de energía sustancialmente menor que la que usamos hoyy será mil veces más eficientey poderosa que las computadoras que tenemos en la actualidad”, agregó.

Podemos tener computadoras ópticas en los próximos 20 a 25 años”, anticipó Newell.

Las computadoras cuánticas.

Otra tecnología prometedora para la creación de procesadores más rápidos y más pequeños es la computación cuántica, que aprovecha el poder de los átomos para realizar tareas computacionales.

A diferencia de los equipos electrónicos, que almacenan información como 0s y 1s, las máquinas cuánticas pueden almacenar 0s y 1s, al mismo tiempo y, por lo tanto, procesar datos mucho más de una vez.

Con la informática tradicional, el esquema es encendido o apagado, verdadero o falso. Pero la física cuántica utiliza qubits, que están dentro y fuera al mismo tiempo, por lo que puede transmitir información más rápido.

“Creo que en 25 años, a partir de ahora, no se tratará más de bits. Vamos a manipular los estados cuánticos”, estimó Chip Elliott, ingeniero jefe de BBN Technologies.

Y agregó: “El poder de procesamiento es muy alto con los ordenadores cuánticos, por lo queserá capaz de modelar con precisión todos los procesos del mundo”.

El teléfono inteligente tendrá el poder de una supercomputadora.

Usted ya no tendrá que llevar una cartera o las llaves. Tampoco su tarjeta de crédito o de débito, ni su identificación personal. Todo estará almacenado en el “smartphone”.

“Los teléfonos llegarán a tener más de un terabyte de memoria local”, aseguró Mark Lewis, director de estrategia de EMC, quien predijo que toda nuestra información digital será una copia de seguridad en la nube.

“Si pierdo mi celular, puedo tomar uno nuevo, entrar con mi código, y se me identificará y enviará toda mi información a mi nuevo equipo”, explicó.

Esto será posible porque el teléfono se conectará a una red de alta potencia que tendrá una gran cantidad de información a su alcance.

“Usted será capaz de almacenar toda la base del conocimiento humano en su PDA (asistente personal digital)”, predijo Bernie Meyerson, vicepresidente de Innovación Global en IBM.

“El teléfono será capaz de encontrar, de forma instantánea en una red de próxima generación, una base de datos que interpreta y reacciona a su consulta en su propio idioma”, detalló.

Hablando, el hombre y la máquina se entienden.

En el futuro, usted simplemente hablará con su equipo para conseguir que se realice un cálculo o encontrar una respuesta.

Por ejemplo Watson, un sistema informático de IBM que este año derrotó a los mejores competidores del mundo en el juego Jeopardy, anticipó un futuro de la interacción en lenguaje natural con las computadoras.

Watson es un sistema que puede “interactuar con los seres humanos, tiene la capacidad de aprender de sus errores, y puede preguntar por más datos”, explicó Meyerson.

La tecnología será transparente.

Hasta ahora, hemos sido esclavos de nuestras máquinas. Tuvimos que aprender a adaptarnos a cada nueva tecnología -desde reproductores de video hasta el iPhone- y a dominar cada nueva interfaz. Pero la tecnología del futuro será mucho más transparente.

En el futuro, será tan penetrante, tan arraigada, que se irá adaptando a nosotros“, afirmó Dave Evans, Chief Futurist de Cisco.

“Estamos pasando de un mundo donde vemos la televisión a otro donde es la televisión la que nos mira. Habrá cámaras incrustadas en todo tipo de dispositivos… y los dispositivos lo estarán mirando para asegurarse de que está haciendo correctamente su actividad”, advirtió.

Evans predijo que la tecnología va a interactuar con nosotros para ofrecer “la información correcta, en el momento adecuado, en el contexto adecuado”.

Los terabits estarán disponibles en el hogar.

Dentro de dos décadas será común tener conectividad multi-terabit para el hogar.Recordemos: 1 terabit equivale a algo más de mil GB. Podría haber una conexión de 8 terabits en su casa. Eso es una tasa de conectividad en el hogar que supera a la que tienen hoy la mayoría de países enteros.

Así, las redes de alta velocidad serán omnipresentes. Hoy el 90% del planeta donde la gente vive tiene acceso a Internet. Pero dentro de 25 años, habrá 100% de disponibilidad de red.

En las próximas décadas, se observará la creación de redes IP en el espacio. Vamos a tener mayor ancho de banda, mayor disponibilidad y la cobertura de banda ancha a cada centímetro cuadrado del planeta.

Redes inteligentes.

Las redes del mañana no sólo serán más rápidas, sino que también van a ser más inteligentes.

Van a ser capaces de decir cuándo tiene sentido utilizar una conexión de red local, tales como Wi-Fi y cuando tiene sentido usar una conexión de área amplia, en función de lo que se quiere enviar y en la que desea hacerlo.

El teléfono celular decidirá dónde es y si es necesario utilizar una amplia zona o conexión local para comunicarse.

Hoy, si se quiere enviar a otra persona alguna información, se manda un e-mail. Aun cuando se esté sentado uno junto al otro, el correo electrónico va todo el camino al proveedor de Internet y, luego en el servidor de correo, como ser Google, y de regreso al proveedor de conexión.

En cambio, sería mucho más eficiente utilizar una conexión Wi-Fi local para enviar el correo electrónico de una máquina directamente a otra. Esa clase de inteligencia de red estará disponible antes de 25 años, dicen los expertos.

“Vamos a tener múltiples tecnologías inalámbricas, y tendremos la capacidad de usar la mejor red disponible”, afirmó Marek Rusinkiewicz, vicepresidente de investigación del operador Telcordia.

“En los laboratorios, podemos demostrar que se puede seguir una sesión de celular de Wi-Fi a WiMax. Habría diferentes criterios de optimización para que usted pudiera encontrar el ancho de banda que es adecuada para una aplicación o se puede encontrar la forma más barata. Esto sería perfecto, por lo que no tiene que cambiar de un modo a otro”, remarcó.

Redes programables.

La National Science Foundation de los Estados Unidos está patrocinando una plataforma de redes de investigación llamado GENI a los 14 campus universitarios de ese país, que apunta a un futuro de entornos programables.

“Se puede programar cada parte de la red”, explicó “Chip” Elliott, el director de la Oficina de GENI. “¿Qué pasa si usted podría empezar a poner el software que desee en la nube? ¿En los routers y todos los cuadros de medio? Se abriría todo el sistema para que la gente pueda instalar cualquier software que ellos quieran”, advirtió.

GENI se instalará en 150 escuelas en los próximos tres o cuatro años, permitiendo a los investigadores llevar a cabo experimentos a gran escala y para repartir el poder de cómputo, el almacenamiento y los recursos de la red.

“Más allá del plazo de cinco años, todo esto se convierte en un equipo muy grande. Estamos empezando a hablar de un equipo planetario”, precisó Elliott.

Entre las aplicaciones posibles en este equipo están las predicciones en tiempo real de las condiciones meteorológicas extremas o de brotes de gripe para una ubicación precisa.

“El objetivo de este sistema climático es predecir, en 5 minutos o 10 minutos,  si en el futuro habrá un tornado y dónde deberá aterrizar un avión”, estimó.

Vamos a tener una Internet verdaderamente mundial

En los próximos 25 años, Internet estará disponible a nivel mundial, con poca diferencia en la velocidad y calidad de acceso, según la ubicación geográfica.

Otro cambio positivo será el despliegue de IPv6, la próxima generación de protocolo de Internet que ofrece espacio ilimitado de direcciones a las empresas y a los consumidores de todo el mundo.

En la actualidad, menos del 30% de la población mundial tiene acceso a Internet, según Internet World Stats. La región que está quedando más atrás, África, tiene sólo el 11% de penetración.

Pero eso cambiará en los próximos 25 años, con todas las regiones del mundo, que alcanzarán a América del Norte, que está cerca de un 80% en las tasas de uso de Internet.

Las comunicaciones globales nivelarán el campo de juego económico, que tendrá el mayor impacto en las naciones menos desarrolladas.

Almacenamiento barato para registrar cada minuto de su vida
Para el año 2029, con 100 dólares se podrán comprar 11 petabytes. Así, podrá grabar cada segundo de su vida entera en calidad Blu-Ray.

Rusinkiewicz afirmó que unos pocos terabytes de almacenamiento en un dispositivo de mano son suficientes para almacenar toda la historia de la vida de una persona, incluyendo todas las películas que haya visto, toda la música que haya escuchado, y todas las fotos que alguna vez ha tenido.

A esta capacidad futura para grabar toda su vida alude un proyecto llamado “El nacimiento de una palabra”, donde un investigador del Instituto Tecnológico de Massachussets (MIT),Deb Roy, comenzó a grabar en video todos los primeros años de su hijo recién nacido, para estudiar la forma en que aprende a hablar.

“Imagínese si usted podría registrar su vida. Todo lo que dijo. Todo lo que hizo, disponible en un almacén de la memoria perfecta en la punta de su dedo”, explicó Roy en una charla en las conferencias TED.

“Así, usted puede volver atrás y encontrar momentos memorables y revivirlos o tamizar a través de las huellas del tiempo y descubrir patrones en su propia vida que antes no había descubierto”, aventuró.

Todo va a ser digitalizado y accesible a través de Internet

Cada pieza de información disponible a la humanidad será analizada, digitalizada y se podrá buscar a través de Internet. Y la información será accesible en el teléfono inteligente, no importa dónde usted se encuentre en el mundo a una velocidad que no lo frustrará.

“Los niños no tendrán idea de lo que significa ir a una biblioteca, lo que significa ir a Blockbuster”, dijo Newell.

Vamos a mostrar a nuestros nietos un CD o un DVD, y ellos no tendrán idea de lo que es”, pronosticó.

Todos los espectáculos se podrán seguir en 3D y no será necesario un dispositivo especial para acceder a ellos, sólo el teléfono inteligente. “Las bibliotecas desaparecerán y se transforman en grupos de reflexión. Y los libros estará en un museo”, señaló.

Los sensores serán omnipresentes.

Todo lo que se compre -casas, electrodomésticos, dispositivos de entretenimiento, los coches- tendrá incluido poder de procesamiento y estará conectado a Internet para el seguimiento, el mantenimiento y otras funciones.

Por ejemplo, su coche estará en constante contacto con el distribuidor y se podrá saber cuándo necesita un cambio de aceite.

Su casa tendrá sensores de detección de movimiento que controlan la luz, la calefacción, la refrigeración y llamará al 911 si tiene un resbalón. Y los sensores en la heladera detectarán cuando la comida está mal.

En otras palabras, la llamada “Internet de las cosas” será realidad. “Hoy, tenemos unos cuantos millones de dispositivos conectados a la red. Para el año 2020, deberíamos ver a 50 mil millones de dispositivos conectados”, predijo Evans.

Así, dispositivos tan pequeños como un grano de sal o arena podrán ser inyectados con una aguja hipodérmica en los seres vivos con fines de seguimiento.

“Incluso, podríamos ver a cada persona en el mundo con una única dirección IPv6”, advirtió el experto.

Los robots superarán en número a los humanos.

Dentro de 25 años, los robots superará la población humana en los países desarrollados”, aseguró Evans.

“Estas máquinas estarán conectadas a la red. Y en las próximas décadas, las redes sociales de las máquinas eclipsarán a las de los humanos”, expresó.

Los avances en la robótica están siendo impulsados “en gran medida por las aplicaciones militares, pero estamos viendo esto en el mundo comercial también”, dijo Rusinkiewicz.

Vamos a tener robots muy pequeños, que podrán arrastrarse, trepar paredes y cosas de esa naturaleza”, precisó.

Sus activos serán virtuales.

Desde videos a los libros, casi todo lo que tiene deberá migrar de lo físico a lo virtual. “La propiedad de los medios de comunicación y los datos se basan en los metadatos”, explicó Lewis.

Así, “el aspecto físico de ser propietario de una película no va a ser un equipo físico o un DVD. En ella, participarán los metadatos que dice que usted tiene los derechos para ver esa película”, precisó.

“Dentro de 25 años, podría ir a Amazon.com y ver un dispositivo que usted quiere comprar. En vez de tener que ser enviado físicamente, usted descargará la receta para imprimirlo localmente con una impresora 3D”, aventuró Evans.

La realidad aumentada se convertirá en algo común.

En 2036, tendremos imágenes generadas por computadora que se integrarán en nuestra vida cotidiana, en lo que hoy se llama realidad aumentada.

Por ejemplo, las lentes de contacto podrían tener incrustados sistemas de reconocimiento facial en tiempo real.

3D en sistemas de telepresencia.

A partir de la telepresencia, cada experiencia de la computadora será 3D e inmersiva. De hecho, algunos expertos dicen que se va a vivir sin problemas entre el mundo virtual y el mundo real.

La telepresencia será una experiencia completa en 3D, donde se puede tocar y ver y oler lo que está pasando”, pronosticó Rusinkiewicz.

Estos sistemas no requieren anteojos especiales o avatares. Una imagen en 3D de una persona de otra parte del mundo aparecerá en su tamaño real y será capaz de interactuar normalmente con la gente en una sala de conferencias.

“Todo el entorno en que vivimos se llenará de sensores y cámaras. Estaremos con una vida dentro de la computadora y la otra mitad dentro del mundo físico. Al final, se disuelve la diferencia entre el mundo físico y el mundo interior del equipo. No habrá diferencia en 25 años”, vaticinó.

Las computadoras evitarán que nos ocurran problemas.

Hoy, los sistemas informáticos son reactivos, pero los del futuro serán predictivos y preventivos. Van a ser capaces de correlacionar grandes conjuntos de datos en modelos más grandes y crear simulaciones más realistas de los ambientes para que puedan evitar problemas.

Por ejemplo, un sistema de gestión del tráfico futurista informará no sólo la ruta alrededor de un atasco de tráfico, sino evitará que los embotellamientos se produzcan por cambiar los patrones de los semáforos.

“Podremos mirar a la velocidad de los vehículos y cuántos hay en las carreteras. Podremos analizar y crear modelos que proyectan el tráfico en cualquier punto dado del tiempo. Con esa información de forma proactiva se puede cambiar el flujo del tráfico para que el atasco nunca suceda”, explicó Meyerson.

Este tipo de sistemas de predicción y prevención podría tener un impacto significativo en las ciudades del futuro, que afectan no sólo el tráfico sino también el agua y la electricidad.

“Este es un paso enorme para la vida urbana”, afirmó Meyerson, quien agregó que “las ciudades son sistemas de sistemas”.

Las computadoras “pensarán” como seres humanos.

Hasta ahora, las computadoras han sido malas en la comprensión del contexto de la información, pero se avanzará a medida que tengan más poder de procesamiento disponible.

“Creo que estamos en el punto en que tenemos suficiente potencia para hacer importantes avances en algunos de los problemas de inteligencia artificial”, afirmó Rusinkiewicz.

Por ejemplo, los programas de software serán virtuales entidades semiautónomas, que se encargan de tareas simples para una persona. Así, una aplicación será capaz de localizar las diapositivas de una presentación, o hablar con el programa de otra persona para coordinar una actividad.

Su trabajo puede ser subcontratado a una computadora.

Si su trabajo implica la investigación y el análisis, puede ser sustituido por una computadora, gracias a la evolución esperada de la web semántica, un conjunto de tecnologías que se creó el World Wide Web Consortium (W3C) que permite a los servidores entender el significado de la información para que puedan acceder a la web de forma inteligente y realizar tareas en nombre de los usuarios.

“Habrá una creciente capacidad de las computadoras para analizar los datos, tamizar a través de ellos y extraer el significado, ya que los programas se vuelven más capaces de organizar y encontrar contenido semántico”, explicó Newell.

Sólo los ágiles y los creativos sobrevivirán.

En un mundo donde el ritmo de cambio es cada vez más rápido y más rápido, se buscarán los trabajadores que sean más ágiles, porque son más flexibles y capaces de aceptar el cambio.

“La tecnología va a innovar con mucha rapidez”, vaticinó Lewis. “El desafío para los profesionales será encontrar la manera de adoptar nuevas tecnologías y ser capaces de aprovechar sus ventajas. Eso va a ser absolutamente crítico”, advirtió.

Otro atributo clave de la mano de obra en el futuro será la creatividad, porque los entornos de trabajo serán cada vez más abiertos, cooperativos y creativos.

“Antes, la fuerza física era lo que importaba, pero su valor ha disminuido mucho”, recordó Rusinkiewicz. “En el futuro se valorará la creatividad y la capacidad de hacer conexiones inesperadas y de adaptación”, pronosticó.

Fuente: http://www.iprofesional.com

Telefónica realizará pruebas IPv6 tras el World Day del día 8 de junio

Una vez que termine el IPv6 Day el día 8 de junio, Movistar comenzará a realizar pruebas piloto con ese nuevo protocolo, en tanto continúa perfeccionándolo de forma interna. Estas pruebas, ya se sabe que se realizarán tanto en la red fija como móvil.

Desde el mes de abril está con pruebas internas en el centro de Huesca, donde quienes saben, afirman que todos se conectan con IPv6 y de momento, no tienen ninguna complicación, aunque para la extensión aún hacen falta algunos ajustes.

Carlos Ralli, experto en IPv6 de Telefónica, mantuvo una entrevista a través de Twitter y confirmó que “primero hay que solucionar fallos de contenidos en dual stack (el propósito del World Day del 8 de junio). A partir de ahí se han planificado pilotos en distintas fases. Las fechas concretas se están definiendo”.

La red de Telefónica ya está preparada, pero para poder ponerlo en funcionamiento, el Router, el ISP y el servidor deben actualizarse, y lo primero lo irán haciendo en el paso de los días.

Fuente: http://www.adslayuda.com

Microsoft compra Skype por 5.920 millones de euros

El gigante informático anuncia el acuerdo con el sistema de telefonía por Internet.- Ballmer afirma que la compra demuestra la ambición de la empresa.

Microsoft ha comprado la empresa de telefonía por internet Skype por 8.500 millones de dólares (5.920 millones de euros), cantidad que incluye la deuda que arrastraba Skype, de unos 1.000 millones. El acuerdo representa el movimiento más agresivo hasta el momento del gigante del software para extender sus dominios en los mundos de la comunicación, el entretenimiento y la información. Para el patrón de Microsoft, Steve Ballmer, la compra demuestra la ambición y visión de futuro de la empresa. “Tenemos grandes metas y aspiraciones. Y cuando miramos al mundo y vemos las oportunidades que da la tecnología, acudimos a ellas y seguimos empujando”, ha comentado en un mensaje a los empleados. Skype conecta más de 663 millones de usuarios en todo el mundo mediante telefonía y vídeo a través de internet, que a lo largo de 2010 consumieron más de 207.000 minutos de comunicaciones en esta plataforma. Con todo, Ars Technica cifra el número de clientes activos en 124 millones cada mes y suministra entre 20 y 30 millones de conexiones simultáneas. La compra de la plataforma telefónica aporta a Microsoft una marca reconocida en Internet en momentos en los que este gigante busca aumentar su penetración entre los internautas y en el mundo móvil. Aunque su buscador Bing ha ganado cuota de mercado a lo largo del año pasado, aún se encuentra en clara desventaja frente a su principal competidor, Google, a través del cual se desarrollan el 65% de las búsquedas en Internet en EE UU. La compra de Skype supone un empujón para Windows Phone, el sistema operativo de Microsoft para teléfonos móviles, que tiene dificultades para conseguir una cuota de mercado apreciable frente a Android y Apple o RIM. Esta sería la segunda operación de refuerzo tras el pacto con Nokia para que el fabricante finlandés utilice Windows en sus teléfonos. La consola Xbox también puede ser otro frente donde Microsoft aproveche la adquisición. Se trata de la compra de más envergadura realizada por Microsoft, que en 2007 adquirió aQuantive por 6.000 millones de dólares. Microsoft tiene un servicio de voz y vídeo gratuito a través de Windows Live Messenger con 330 millones de clientes activos y unos 40 millones de conexiones simultáneas. También ofrece un servicio de conectividad a las empresas a través de Lync 2010. La gran diferencia es que Skype, cuyo servicio básico es gratuito, cuando ofrece conexión a teléfonos cobra una cantidad y tiene unos ocho millones de clientes que lo hacen. Teniendo presente esta cifra, supone que Microsoft pagaría unos mil dólares por cada uno de estos clientes que dan un beneficio de unos 30 dólares cada uno. El año pasado, Skype tuvo unos ingresos de 860 millones de dólares y un beneficio operativo de 264 millones. Sin embargo, presentó pérdidas por valor de siete millones y tiene una deuda a largo plazo de 686 millones de dólares. Los rumores de compra por parte de Facebook o Google situaban el precio de compra entre los tres y cuatro mil millones de dólares. Microsoft ha ganado la partida incrementando notablemente esta cifra, aunque según otros analistas Google, con su puja, sólo trataba de aumentar el precio de la venta. Ésta no será la primera vez que alguien compra Skype. El servicio debutó en 2003, y en 2005 fue adquirido por eBay por algo más de 3.000 millones de dólares. Esta compañía de comercio en línea vendió en 2009 la mayoría de acciones a un grupo inversor por 1.200 millones menos. Ahora va a recuperar su inversión eBay, ya que a cambio del 30% de las acciones que le quedaban de Skype recibirá unos 2.400 millones de dólares. Otros grandes beneficiarios son los fundadores de Skype, Niklas Zennstrom y Janus Friis, que aún poseían el 14% de las acciones por las cuales recibirán unos 1.120 millones de dólares. Es la segunda vez que los fundadores venden Skype, y ya anteriormente habían vendido su P2P KaZaa. El resto de las acciones (alrededor del 56%) estaba en poder de inversores.

Microsoft apoyará a los clientes de Skype en otras plataformas

“Con 170 millones de clientes conectados y más de 207 millones de minutos de conversaciones de voz y vídeo en 2010, Skype ha sido un pionero en la creación de conexiones ricas y significativas”, explica Microsoft en un comunicado. Microsoft utilizará Skype en sus principales plataformas y servicios. “Skype será compatible con dispositivos de Microsoft como Xbox y Kinect, teléfonos Windows Phone y una amplia gama de dispositivos de Windows”, asegura el comunicado. La compañía ha tranquilizado a los clientes de Skype, ajenos a Microsoft, en el sentido que “continuará invirtiendo y apoyando a los clientes de Skype en plataformas que no sean de Microsoft”. En el organigrama de Microsoft, Skype pasará a formar parte de la estructura de la compañía como una división más. “Skype se convertirá en una nueva división de negocio dentro de Microsoft y su máximo responsable, Tony Bates, asumirá el cargo de presidente de la división de Microsoft Skype, reportando directamente a Ballmer”, afirma el comunicado. La compañía ha informado que “el acuerdo ha sido aprobado por los consejos de administración de Microsoft y Skype”, pero todavía “está sujeta a aprobaciones regulatorias y otras condiciones de cierre habituales”. Las dos compañías esperan que estos trámites se formalicen a lo largo de este año.
Fuente: http://www.elpais.com

Analizadores de log. ¿Analog o Webalizer?

En esta entrada quiero compartir un pequeño análisis, en base a mi experiencia, sobre dos de los analizadores de logs más famosos utilizados para obtener las estadísticas de nuestro sitio web. Analog vs Webalizer.

1. Aspectos generales.

Tanto Analog como Webalizer son analizadores de logs simples pero bastante completos para realizar registros de accesos generados por servidores Apache e IIS. Ambos son completamente gratuitos. Desde la web de Analog es posible obtener el código fuente, mientras que Webalizer está programado en C, teniendo el usuario acceso a los ficheros .c y .h en el directorio en el que ha sido descargado.

Una de las características principales de ambos es que funcionan en cualquier plataforma o sistema operativo, son escalables y altamente configurables, pudiendo realizar reportes con los datos en mas de 32 lenguajes incluido el Español, son rápidos y ofrecen estadísticas detalladas sobre el uso de su servidor web.
Entre los datos estadísticos ambos nos permiten obtener : Cantidad de páginas vistas, indicando las más populares, la procedencia de cada visita (páginas de donde llegan los visitantes), códigos de respuesta de errores del servidor, información de archivos, actividad del sitio cada cierto tiempo, uso del tráfico…
Analog no contiene una interfaz gráfica o GUI como suele llamarse, si no que consta de un archivo ejecutable (analog.exe) , y este funciona desde la línea de comandos mediante el paso de parámetros para configurarlo y poder crear los reportes y listados con la información.
Además contiene una página html (anglform.html, ubicado tanto en la carpeta principal, aunque podemos encontrar en la carpeta Lang el mismo fichero en español, con nombre esform.html) que sirve como interfaz para realizar algunas configuraciones y ajustar algunas opciones, como por ejemplo: Indicar si el programa debe realizar un sumario general, un sumario de datos mensual, semanal…, así como otros detalles para los reportes. El hecho de incluir estas opciones fuera del fichero de configuración analog.conf (que se encarga de indicar el fichero html en el que se generará el reporte, el fichero de log a analizar, así como los tipos de páginas y de ficheros que se encuentran en el servidor), le otorga un carácter más amigable y más fácil de usar.
Webalizer consta de una serie de ficheros programados en c que deben ser compilados y ejecutados para funcionar, por tanto, según la plataforma en la que trabajemos se instalará de una forma u otra, pudiendo ser necesaria la instalación de librerías (como gdlib) u otros componentes. A favor, podemos encontrar en el fichero README una guía completísima para instalar y configurar el programa. Una vez instalado, enontramos en el directorio principal el fichero de configuración, webalizer.conf, que concentra todos los parámetros de configuración que podemos encontrar, como indicar el fichero de log, el directorio de salida en el que se mostrará el reporte, la dirección de la web y otros parámetros que identificaremos con más detalle a continuación.

2. Ficheros de configuración.

Como hemos comentado anteriormente, el fichero de configuración analog.conf contiene las etiquetas de configuración del programa Analog, aunque sólo las más básicas. Existe otro fichero de configuración más extenso en la carpeta examples, llamado big.conf, si se desea una configuración más específica, algo que, en principio, puede ser ventajoso para principiantes, aunque para configuraciones poco más complejas requiere una lectura detenida del fichero README.

A priori, con conocer unas pocas etiquetas podemos obtener un informe considerablemente completo. Con la etiqueta LOGFILE elegimos el fichero de log a analizar, su formato es reconocido automáticamente. Indicamos el nombre del fichero html de salida mediante la etiqueta OUTFILE. Por otra parte, con otras etiquetas la configuración por defecto suele ajustarse a las necesidades de los usuarios, por ejemplo en las siguientes. Indicamos que los reportes incluyan links en html mediante LINKINCLUDE. Con PAGEINCLUDE o PAGEEXCLUDE indicamos qué tipos cuentan como páginas (por defecto .html, .htm y directorios), con TYPEALIAS se reconocen los tipos de ficheros válidos, etc. Hay que tener cuidado con la etiqueta SEARCHENGINE, que nos indica los buscadores que tiene en cuenta leyendo las cadenas de los referentes, ya que, aunque parece haberse actualizado desde 2005, puede precisar de nuevas actualizaciones con el paso del tiempo.

Sin embargo, para indicar otras configuraciones básicas, como el lenguaje de la salida mediante LANGUAGE, la resolución de las ip’s a dominios con DNS WRITE o la generación del reporte con los requisitos fallidos mediante FAILURE ON, tenemos que acudir al fichero big.conf, por lo que podemos concluir que, en cuanto nos hagamos un poco con la herramienta, debemos acudir directamente a este fichero de configuración.

Debo romper una lanza en favor de la Interfaz de Formularios de Analog, en todos los idiomas disponibles, que nos permite indicar de forma sencilla los informes que deseamos ver (general, mensual, semanal, diario o por horas, por dominios, organizaciones , directorios, navegadores o SO, por tamaño o tipo de archivo…). También podemos ordenar la búsqueda para cada informe,
según número de peticiones o según el tráfico y limitar el análisis por fechas o indicar de forma explícita los archivos a incluir. Por último, nos ofrece un par de opciones relacionadas con la presentación. Todo de forma clara, sencilla y bastante amigable.
En cuanto a Webalizer, como ya hemos dicho todos los aspectos relacionados con la configuración se controlan desde el fichero webalizer.conf, por lo que nos encontramos con un fichero mucho más extenso, que contiene algunas opciones por defecto poco eficientes.

Comenzamos hablando de los referrers, es decir, los enlaces a la web y desde donde se reciben las visitas. La etiqueta Hidereferrer oculta nuestros propios referrers y deja que se vean mejor los externos. Indicando un dominio se podrían ver con claridad las visitas externas.

Continuamos con el tiempo de visita. La etiqueta VisitTimeout indica el tiempo entre dos peticiones desde una IP, a partir del cual se considera que se trata de dos visitas distintas. El valor por defecto es media hora (1800 segundos). Este es un aspecto a tener en cuenta, ya que según el tiempo de visita indicado, los resultados de los análisis de los logs serán diferentes.

Y finalizamos con el problema de los informes incompletos. Las etiquetas AllReferrers o DumpReferrers (entre otras), disponibles en html y texto sin formato con separadores de campo proporcionan informes completos si están habilitadas, pero por defecto no lo están por lo que se puede perder bastante información. La razón por la que no se generan es la cantidad de espacio en el disco que pueden ocupar.

Aunque existen versiones actualizadas, conviene comprobar las cadenas de buscadores, igual que en Analog, por si acaso están obsoletas ante la aparición de nuevos buscadores. Otros parámetros a tener en cuenta, en muchos casos con funcionalidades similares a las obtenidas con Analog mediante sus ficheros de configuración y sus formularios, son PageType, que indica los archivos que cuentan como páginas para las visitas (el formato .php suele estar comentado), los valores por defecto que muestra el informe de estadística (TopSites, TopURLs, TopAgents), IndexAlias, que permite comprobar si la página principal de la web y la dirección absoluta de la misma tienen diferentes nombres (está deshabilitado por defecto), o las etiquetas Ignore para no mostrar determinadas páginas.

En definitiva, ambos poseen muchas opciones de configuración que hay que conocer y tener en cuenta para realizar las modificaciones necesarias. Webalizer las engloba en un sólo fichero, lo que simplifica el trabajo a alguien que sabe manejarse a través del fichero. Analog lo divide en varios ficheros, e incluye el famoso formulario, algo que puede resultar más engorroso para
alguien experto, pero que puede ayudar a usuarios menos familiarizados con la herramienta o que requieran configuraciones más sencillas.

3. Estadísticas.

Analog ofrece sus estadísticas en un fichero html con el nombre que le hemos indicado en el fichero de log. Si seleccionamos en el formulario la realización de un informe completo, podemos ver algo así.
Al principio vemos un resumen general, que contiene estadísticas globales, como el número de peticiones exitosas o fallidas o los datos transferidos. A continuación vemos un informe mensual mostrado con un sencillísimo gráfico de barras cuyas alturas representan las peticiones por página. Lo mismo ocurre con el posterior resumen diario, que lista la actividad total por cada día de la semana, sumados por todas las semanas en el informe, y en el resumen horario, que muestra la actividad total por cada hora del día.

Los posteriores informes se representan mediante un, también muy sencillo, gráfico circular. En el informe de dominio vemos el porcentaje de tráfico proveniente de los países de los hosts que pidieron ficheros, mientras que en el informe de la Organización podemos listar las organizaciones de los hosts que pidieron ficheros, ordenadas por número de solicitudes y su porcentaje. Podemos encontrar un informe de búsqueda por palabras utilizadas en motores de búsqueda, ordenados por el número de solicitudes, un informe sobre el sistema operativo utilizado por los visitantes, ordenado por el número de peticiones de páginas, un informe que enlista los códigos de estado HTTP de todas las solicitudes, por orden numérico, un informe que enlista los tamaños de los ficheros en grupos de tamaños definidos, un informe que agrupe las peticiones según las extensiones de los ficheros con un mínimo de, por ejemplo, un 0,1% del tráfico, ordenados por la cantidad de tráfico, un informe que muestre los directorios desde los cuáles fueron pedidos los ficheros (siempre que ocupen, por ejemplo, un 0,01% del tráfico), ordenados por la cantidad de tráfico o un informe que proporcione un listado de los archivos con, por ejemplo, al menos 20 peticiones, ordenados por el número de peticiones.

Es en el apartado de resultados donde Webalizer demuestra ser un analizador más sofisticado o
al menos, pensado para análisis más complejos y completos.
Webalizer muestra al principio dos páginas de información, con un gráfico y una tabla resumen
de los últimos 12 meses (mostrando los totales mensuales y la media diaria). Agrupa los
resultados según:

  • Accesos: Número de veces que se hace un acceso al servidor por cada elemento de las páginas. Cada vez que un navegador solicita una página web, o ejecuta un programa, hace una búsqueda en una base de datos, accede a una imagen u otro tipo de archivo.
  • Archivos: Número de veces que el servidor envía un archivo al usuario/cliente. Por ejemplo: si un usuario entra en una página html, el servidor le enviará a parte del fichero html, los gráficos y otros elementos de la página.
  • Páginas: Número de archivos que se consideran páginas web. Por ejemplo: htm, html, asp, php…Este dato es importante para conocer el número de páginas visitadas.
  • Visitas: Una visita es una petición al servidor Web para consultar una página. Si se realizan varias peticiones desde una misma IP es un corto espacio de tiempo solo se contabiliza una visita.
  • Kbytes: Cantidad de datos medidos en KBytes que el servidor envía a los usuarios de la web y
  • Clientes: Los clientes son las diferentes direcciones IP desde las cuales se accede al dominio.

A continuación se muestra el resumen de las estadísticas del mes analizado, incluyendo la media y el valor máximo del mes, así como los Accesos por código de respuesta del servidor. Por supuesto, tenemos también las estadísticas diarias, detalladas por cada día del mes de la misma forma que los anteriores.

Así pues, posteriormente podemos ver un análisis de los accesos realizados a la web por horas. Se pueden ver gráficos que contienen las horas en las cuales los usuarios visitan el sitio web. Esto puede ser útil en muchos casos, por ejemplo para elegir el momento del día para hacer alguna modificación importante en la web.

Por otra parte, Webalizer informa de las páginas más consultadas por los usuarios, lo que puede servirnos para ver qué páginas son las que necesitamos favorecer para que sean más visitadas (facilitando su acceso) y qué productos/servicios necesitamos promocionar.

Vemos también completas estadísticas por páginas de entrada y salida, indicando su URL, estadísticas por clientes, indicando el nombre de la máquina, estadísticas por enlaces desde los cuales se ha accedido a nuestra web, estadísticas por cadena de búsqueda que nos informa de las palabras introducidas en los buscadores desde donde los usuarios han accedido a la página web, tablas con los primeros navegadores utilizados y/o gráficos circulares con estadísticas por países (similar al de Analog en este caso).

4. Conclusión.

Tengo la sensación de que Analog es un programa más sencillo de utilizar, tanto a nivel de instalación y puesta en marcha, como a nivel de configuración de los parámetros de entrada para la realización de los informes. En consecuencia, los resultados obtenidos son más simples e incompletos que los que ofrece Webalizer, y también es cierto que el fichero de salida de Analog es menos atractivo que el de Webalizer.

De todas formas, mi conclusión es que Analog es el mejor programa para realizar informes sencillos, interesante para principiantes, mientras que Webalizer es más adecuado para consultas más complejas y usuarios más expertos.

Una persona no es una IP, una IP no es una persona

Con esta idea, un juez estadounidense ha rechazado las acusaciones sobre piratería que diversas compañías están interponiendo contra usuarios individuales de sistemas de descarga p2p. La razón principal, que detrás de una IP puede haber gente distinta de la persona que firmó el contrato.

En los Estados Unidos, las productoras, editoras y discográficas han encontrado una nueva forma de sacar rentabilidad a las copias no autorizadas de su material con derechos de autor que circulan por la red: mediante demandas colectivas. Hasta el momento han denunciado a los contratantes de líneas de Internet desde las que se haya subido o compartido material protegido, en grupos bastante amplios, a los que se les condena a multas no muy elevadas que garantizan ciertos ingresos a las compañías.

Pero este procedimiento podría acabar si la nueva sentencia es aceptada entre los magistrados estadounidenses. Afirma que este sistema no es válido porque una IP no se corresponde con una persona, por lo que una sentencia contra el que paga las facturas por un uso inadecuado de otra persona daría lugar a una condena injusta.

Es el argumento utilizado por el juez Harold Baker para no autorizar a un grupo de distribuidores de la industria pornográfica a conocer quiénes son las personas que están detrás de unas direcciones IP determinadas. En su alegato, el magistrado enumera una serie de culpables anónimos potenciales que podrían haber hecho el uso ilegal de la red en lugar de los acusados. TorrentFreak recoge su descripción:

“El que infringe puede ser el contratante, alguien que viva en la casa del contratante, un visitante con su portátil, un vecino o alguien aparcado en la calle en un momento dado”.

Una sentencia basada en errores previos

Para defender su argumentación, el juez Baker ha recordado diversos casos en los que la persona errónea había sido detenida por el mero hecho de ser el titular de la conexión a Internet, pero más tarde habían demostrado su inocencia.

A finales de abril la agencia AP recogió tres casos de este tipo muy semejantes. Tres hombres arrestados bajo la acusación de descarga de pornografía infantil. En efecto, a través de sus conexiones se había accedido a contenido ilegal; sin embargo, los responsables no habían sido en ninguno de los casos los acusados, sino vecinos que estaban utilizando su red a través de una conexión WiFi.

Se trata de casos en los que los auténticos responsables de los delitos aprovecharon esta debilidad del sistema y la facilidad para penetrar en redes con seguridad estándar para descargar la pornografía.

Teniendo en cuenta las infraestructuras actuales, el número de conexiones existentes y el conocimiento medio de seguridad de los suscriptores de líneas de Internet, la decisión del juez permite descansar tranquilos a millones de usuarios que podrían ser detenidos por delitos que ni siquiera saben de donde provienen.

Las compañías que reclaman dinero por copyright pueden quedarse sin otra de sus fuentes de ingreso a medida que su contenido continúa circulando por la red. Al menos si el resto de juzgados de los países con legislación semejante toman en consideración los argumentos de este magistrado, preocupado por hacer justicia con todas las partes.

Fuente: http://www.readwriteweb.es/

A %d blogueros les gusta esto: