Microsoft intentará golpear a Google

Todo sabemos que la lucha que hay entre Microsoft y Google para ser el mas fuerte del mercado, y claro esta que el buscador mas utilizado de toda la red es Google(de momento). Aunque lograr que los usuarios de Google se pasen a otro buscador sera una tarea difícil, el equipo de Sillicon Valley empezó la construcción de un buscador sigiliso (Stealth Search Engine) que promete bastante.
El equipo esta formado por 20 programadores “estrella” que se dedicaran exclusivamente a la creación de su buscador.

Microsoft envió a Sanaz Ahari a Sillicon Valley para que lidere el proyecto. Ahari estaba en el equipo de live.com y fue la directora de proyecto mas joven de la historia de Microsoft con 23 añitos.Ahora solo nos queda esperar, podrá Microsoft igualar, incluso superar el actual buscador de Google con su nueva tecnología? no lo sabremos hasta dentro de un tiempito…

Fuente: TechCrunch

Google, reparte inseguridad a todos.

Google ha cometido un fallo muy grande para su imagen, y es que debido a un agujero de seguridad Ronald van den Heetkamp pudo acceder al root y navegar por las carpetas, aquí viene otro fallo de Google, almacenar la base de datos en el directorio /www que puede ser vista remotamente.

en google.dirson.com hicieron una revision un poco mas ampliada de los contenidos y explican:

Así, podemos descubrir por ejemplo ‘schema.sql’, donde se crean una serie de tablas de mySQL de la Base de Datos ‘dbRemoveUrl’, y destinadas a almacenar algunos datos referentes a la eliminación de URLs, como información de los usuarios o de las páginas web a eliminar. Parece ser que, debido a restricciones de uso remoto de la Base de Datos, no se podía acceder a la información contenida en dichas tablas. Este no es el único caso en que Google utiliza mySQL para sus herramientas, y por ejemplo el sistema publicitario AdWords también lo emplea para almacenar datos de anunciantes.

También nos podíamos encontrar con ‘config.txt’, del cual podemos conocer que:

:: el robot de Google que efectuaba estas labores de comprobación para eliminar páginas web en realidad estaba instalado sobre la ruta ‘/apps/bin/robots_unittest’ del servidor,

:: este robot seguía unos patrones de rastreo contenidos en el directorio ‘/home/google/googlebot/’,

:: se almacenaban datos de rastreo en ‘/apps/smallcrawl-data’,

:: la longitud máxima permitida en las URLs (al menos, de las que se querían eliminar con este método) era de 511 caracteres,

:: la aplicación estaba desarrollada con Java, y utilizando las antiguas clases de conexión con mySQL ‘MM.MySQL’, además de otras creadas por los ingenieros de Google

:: la clave del administrador de esta Base de Datos era tan sencilla como ‘k00k00’ (como hemos dicho, restricciones de uso remoto impedían conectar desde servidores externos)

Descargarse los contenidos que pudieron ser accedidos desde aquí.

Ahora yo digo, nos podemos fiar de los peces gordos? en este caso el fallo no desveló ninguna información personal, pero si lo hubiese hecho? ahí queda la pregunta.