Home Search

informatica - search results

If you're not happy with the results, please do another search

0 1314

passwordEn su blog, Thomas Baekdal señala los métodos con los que una contraseña puede ser revelada:

  • El hacker pregunta por tu contraseña estafando al sistema de alguna forma.
  • El hacker lo averigua. A la gente le gusta las frases sencillas para poder recordarlas. Como el día de nacimiento.
  • El hacker decide realizar un ataque masivo. Simplemente se dedica a escribir todas las contraseñas posibles al mismo tiempo relacionadas con la persona en cuestión.
  • El hacker ataca a un tercero con una lista de palabras comunes.
  • El hacker usa un diccionario de aproximación usando un diccionario completo de palabras y accede a la red.

Departamentos de tecnología informática animan a la gente a usar complejas contraseñas para que sean dificiles de desbloquear. El problema se encuentra en que la gente los escribe en una hoja de papel. La clave está en utilizar más de una palabra común. Tres palabras comunes se convierten para el hacker en una tarea imposible.

Usando estas indicaciones Baekdal calcula que adivinar la contraseña llevaría al hacker aproximadamente:

  • 2.537 años a través de un ataque común.
  • 1.163.859 años utilizando un método de ataque masivo.
  • 39. 637.240 años usando un diccionario de ataques.

Respecto al proveedor, lo que debe hacer es asegurar la red:

  • Ganando tiempo retrasando los intentos para iniciar la sesión. En lugar de permitir a la gente inscribirse otra vez y otra, puede añadir cinco segundos de retraso entre cada intento.
  • Añadir un periodo de sanción si la persona ha tecleado el password incorrectamente más de diez veces. Esta acción complica la tarea del hacker también. Sumando tiempo de retraso el proveedor protege al usuario y lo recompensa si sigue un método para el uso de palabras.

Visto en La Flecha

3 2820

ESET pone a disposición un listado de 10 consejos con el fin de dar a conocer las principales prácticas para evitar la fuga de información en entornos corporativos.

En las últimas semanas uno de los temas más resonantes en materia de Seguridad Informática fue el de la fuga de información debido a los acontecimientos suscitados por el caso Wikileaks.

Estos sucesos abrieron el debate sobre la privacidad y la confidencialidad de la información y sobre cuáles son las mejores prácticas para evitar incidentes que pongan en peligro información sensible.

Por este motivo, los especialistas en seguridad informática de ESET Latinoamérica han elaborado un decálogo de hábitos básicos de seguridad para mantener la protección e integridad de los datos:

  1. Conocer el valor de la propia información. Realizar un análisis de riesgos y un estudio de valuación de activos para poder determinar un plan de acción adecuado que permita evitar posibles filtraciones.
  2. Concientizar y disuadir. Diseñar una estrategia de concientización que incluya la responsabilidad en el manejo de la información, que funcione tanto para capacitar a las personas que podrían filtrar información por error u omisión, como para persuadir a las que deliberadamente intenten hacerlo, mostrando las potenciales consecuencias.
  3. Utilizar defensa en profundidad. Considerar el modelo de defensa en capas para tomar distintas medidas de diferente naturaleza a fin de no centralizar las soluciones ni promover puntos únicos de falla.
  4. Incluir herramientas tecnológicas. En ámbitos corporativos resulta muy importante contar con una solución técnica de protección, por medio de hardware, software, o combinación de ambos, tanto a nivel de redes como de equipos (servidores y estaciones de trabajo). El crecimiento de amenazas como el spyware hace que los códigos maliciosos también sean potenciales puntos de fuga de información.
  5. Seguir los estándares internacionales. Alinearse con estándares internacionales de gestión de la seguridad permite disminuir el riego de incidentes y evitar que el negocio se vea afectado por un determinado evento de filtración.
  6. Mantener políticas y procedimientos claros. Relacionado con el punto anterior, se debe tener una clara definición y comunicación de las políticas de seguridad y acuerdos de confidencialidad, aceptados y firmados por todos los usuarios. Esto minimiza potenciales fugas de información, al contar con un consentimiento firmado del usuario para no realizar ciertas acciones.
  7. Procedimientos seguros  de contratación y desvinculación. Tanto al momento de la contratación como en la desvinculación de una persona dentro de una organización, se produce la conexión o desconexión de una nueva pieza con el motor de la organización, por lo que deben tenerse en cuenta los métodos de acceso y registro de los usuarios en sus primeros o últimos momentos de trabajo.
  8. Seguir procesos de eliminación segura de datos. Es fundamental que los datos que se desean eliminar sean efectivamente eliminados y los medios de almacenamiento adecuadamente tratados antes de ser reutilizados.
  9. Construir un entorno de confianza. Contar con personal capacitado y responsable para la gestión y administración de información sensible.
  10. Aceptar y entender la realidad. Si bien el seguir estos consejos no garantiza de forma absoluta la seguridad de la información, estas prácticas ayudan a disminuir los riesgos de pérdida de información valiosa y resaltan la importancia de tomar medidas concretas y definir un plan realista, alejado de la paranoia innecesaria.

Es importante entender que no es posible controlar todas las variables y mucho menos todas las acciones de las personas que integran una corporación, por lo tanto, siempre habrá un margen de error en relación a la protección de la información. Sin embargo la idea es reducir ese margen al mínimo posible. Y esto se logra por medio de prácticas efectivas y adecuadas en torno a la Seguridad Informática. Por tal motivo en ESET trabajamos constantemente en capacitar a nuestros usuarios y brindar las herramientas tanto técnicas como educativas para evitar cualquier incidente informático”, comenta Federico Pacheco, Education & Research Manager para ESET Latinoamérica.

3 3443
ibm

Imagen obtenida desde http://www.flickr.com/photos/alui0000/

Como ya se ha hecho costumbre la empresa estadounidense IBM, le preguntó a la comunidad científica sobre los posibles avances tecnológicos que ellos piensan que se pueden ver dentro de 5 años. La empresa informática develó los originales “hallazgos”.

La encuesta, que se realizó a 3.000 investigadores para conocer su impresión sobre las novedades en el sector tecnológico para 2015, arrojó, por ejemplo, que existirán las videoconferencias holográficas a través de los teléfonos celulares.

Otras voces ponen la “cuota de cordura” y prevén que dentro de cinco años más tendrán que existir un nuevo tipo de baterías, aunque la teoría se “complica” ya que se propone que éstas se carguen al contacto con el aire.

También existirían juegos de baterías portátiles que basarían su energía cinética y que aprovecharían el movimiento del hombre para generar energía y carga.

Otras voces “aseguran” que se diseñarán programas de computación que puedan predecir cuándo y dónde se producirán atascos en las carreteras, incorporando en los vehículos y en las autopistas.

¿Se ha acercado alguna vez a un computador y éste está caliente por el uso? Precisamente este podría ser un intento dentro de cinco años más: Encontrar la forma de prescindir de la estufa a gas o eléctricas o la calefacción y utilizar el calor de los ordenadores y así obtener “calor reciclado”.

Habrá que esperar para ver si estos inventos podrían llegar a concretarse. En cinco años podrían inventarse incluso cosas más radicales que las expuestas por los expertos.

Visto en Emol

Buscaron tambien:

1 1663

El equipo del Laboratorio de la empresa desarrolladora del multipremiado antivirus ESET NOD32 advierte sobre el afianzamiento del malware dinámico como tendencia para el 2011, apoyado en el creciente desarrollo de las botnet.

Las redes botnet serán protagonistas durante el próximo año, afirmando la tendencia observada durante el 2010: mayor cantidad de malware del tipo bot, aumento en la cantidad de redes activas y más cantidad de equipos zombis, según el informe “Tendencias 2011: las botnet y el malware dinámico” de la compañía líder en seguridad informática ESET.

Asimismo, el monto recaudado por los administradores de este tipo de redes también aumentará y se verán innovaciones en las tecnologías de las mismas. Esta tendencia incrementará el trabajo enfocado a dar de baja este tipo de redes delictivas. Asimismo, el monto recaudado por los administradores de este tipo de redes también aumentará y se verán innovaciones en las tecnologías de las mismas. Esta tendencia incrementará el trabajo enfocado a dar de baja este tipo de redes delictivas.

Entre las principales, se pueden mencionar:

Auge de las botnet y el fin del malware estático

Los códigos maliciosos dinámicos son aquellos que primero infectan el sistema y luego, a través de algún acceso remoto al equipo afectado, permiten al atacante realizar diversas tareas mientras el equipo no sea desinfectado.

Las botnet son la confirmación del malware dinámico en conjunto con el negocio delictivo: los equipos zombis pueden ser utilizados en cualquier momento por el administrador de la red para realizar diversas tareas que por lo general están asociadas a diversos delitos informáticos, tales como el robo de información, ataques a través de Internet o envío de spam, entre otros.

Según los datos relevados por el Laboratorio de ESET Latinoamérica, a noviembre de 2010 fueron detectadas unas cinco mil quinientas botnet (habiendo llegado a seis mil en meses como mayo o julio de 2010), contra los pocos más de cuatro mil de finales del año anterior. Según esta tendencia se estima que durante el 2011 la mayoría de los usuarios infectados con cualquier tipo de código malicioso podrían formar parte de una botnet.

El principal motivo del auge de las botnet y de la gran cantidad de usuarios infectados está basado en que el atacante obtiene un importante rédito económico por los servicios delictivos brindados por estas redes. Además, necesitan de muy poco dinero inicial para armar este tipo de red delictiva ya que pueden obtener paneles de administración y malware del tipo bot a muy bajo costo.

Desarrollo de malware multiplataforma

Como alternativa más rentable para los desarrolladores de malware aparece la creación de códigos maliciosos multi-plataforma, archivos que pueden afectar a diversas plataformas con un mismo fin, o bajo un mismo modelo de infección. Un ejemplo de esta tendencia se observó a finales de año, con la aparición de una nueva variante del troyano Koobface, conocida como Boonana e identificada por ESET con la firma Java/Boonana.A. Esto implicó entonces la primer versión multi-plataforma de este troyano que está en actividad desde finales de 2008 y que, dos años después de su creación, expande su propagación más allá de sistemas Windows, infectado también sistemas Linux y Mac OS.

También esta tendencia se observó a principio de año con un experimento realizado para crear botnet en plataformas móviles con iPhone y Android, obteniendo más de ocho mil dispositivos afectados.

BlackHat SEO Social

Hoy en día prácticamente ningún usuario de Internet pasa un día completo sin realizar una búsqueda en la web o utilizar alguna red social. Durante el próximo año este dato tampoco será ignorado por los atacantes, por lo que se estima que incorporen nuevas tendencias basadas en los ataques ya existentes para estos dos servicios.

En materia de buscadores, se espera una optimización en los tiempos de posicionamiento, es decir, una menor demora entre la ocurrencia del evento usado como anzuelo y su ubicación en resultados envenenados por medio de técnicas de BlackHat SEO.

Las redes sociales, por su parte, ganan cada vez más usuarios, por lo que es esperable que continúen siendo usadas como medio de propagación de malware, phishing, spam o scam entre otras amenazas informáticas.

A su vez, es probable que el hecho de que los buscadores comiencen a mostrar no sólo sitios web, sino también resultados en redes sociales origine una nueva forma de BlackHat SEO basada en las redes sociales, donde ya no es necesario para los atacantes la creación de sitios web envenenados sino que pueden hacerlo directamente con perfiles falsos generando contenidos que enlacen a malware.

“El malware dinámico apoyado en el crecimiento de las botnet, el desarrollo de malware multiplataforma y el BlackHat SEO Social serán noticias en el 2011. Sin embargo, también continuarán consolidándose ataques informáticos que ya casi son clásicos y que se sumarán a las tendencias mencionadas: la explotación de vulnerabilidades, el uso de técnicas de Ingeniería Social, la apropiación de datos privados de los usuarios por medio de las redes sociales y el desarrollo de malware desde Latinoamérica”, aseguró Federico Pacheco, Gerente de Educación e Investigación de ESET Latinoamérica.

Visto en CXO Community

1 2382

Un pronóstico elaborado por expertos en ciencia y tecnología, medios especializados, universidades y empresas de hardware determinó cuáles serán los 10 hitos tecnológicos del año próximo. El informe, difundido por la revista del MIT, Technology Review, presenta 10 inventos que si bien parecerían extraídos de una película futurista, ya son parte del hoy.

Grafeno

Llamado “el material del futuro”, este descubrimiento significó el Premio Nobel de Física 2010 para Andre Geim y Kostya Novoselov. Este material, que será utilizado para los procesadores se enrolla y se pliega, es 10 veces más rápido que el silicio y es un buen conductor, que solucionará la cuestión de llamada “conectividad total”.

Letreros interactivos

Son pantallas LCD táctiles e interactivas con cristal holográfico que responden a la demanda de los consumidores por experiencias conectadas a redes en el punto de venta. La interfase es sensible al tacto con video y reconocimiento del rostro. Ofrecen información sobre el producto y su aplicación.

Robots enfermeras

Las enfermeras del futuro son humanoides capacitados para realizar análisis de sangre, guiar a los pacientes por el hospital y asistirlos en la sala de espera, además de tomarles la presión y la fiebre. Algunos hospitales de Japón ya las implementaron, con buena recepción por parte de los pacientes, que encontraron la espera más entretenida gracias a los videos que estas entermeras cibernéticas muestran a través de su pecho.

Vehículos inteligentes

Ya habíamos presentado al primer auto que twittea. Pero, si bien Ford tuvo la primicia en ese aspecto, ya hay varios fabricantes abocados a la creación de vehículos con Internet. Esta combinación permite al usuario, entre otras cosas, conocer el estado de las rutas y disfrutar de contenidos interactivos durante el viaje.

Celulares 3D

Julien Flack, director de tecnología de Dynamic Digital Depth es el autor de un software que le demandó una década de trabajo, y permite que la imagen en el celular salte de 2D a 3D, ofreciendo una experiencia mucho más real. Dicho software fue desarrollado para el Samsung W960, lanzado en Corea del Sur en Marzo de este año.

Redes de sensores inalámbricos

Son redes de nodos o computadoras en miniatura equipadas para una tarea común. Son autoconfigurables, de fácil instalación y capaces de concretar el proceso de emisión y recepción de datos en pocos segundos. Pueden detectar actividad sísmica, el estado del tránsito y movimientos militares.

TV de LED

Estas pantallas, cuyo costo se espera que descienda al ritmo de su demanda creciente, son eco-friendly, generan menos calor, no utilizan materiales tóxicos ni generan residuos. Además, brindan una mejor experiencia visual, no deforman la imagen ni cambian el color.

Componentes fotovoltaicos

Son células solares de película fina que tienen la particularidad de convertir la luz en electricidad. Este avance, descubierto por la Física Kylie Catchpole, implicaría un gran avance de la energía solar por encima de los combustibles fósiles.

Computación ubicua

También conocida como Ubicomp, refiere a la integración de la informática en el entorno humano o real, al punto que la computadora no sea percibida como un objeto diferenciado. Se espera que el hombre interactúe con chips informáticos para realizar sus tareas cotidianas dando órdenes sólo con la voz.

Implantes cibernéticos

Se trata de prótesis basadas en materiales ópticos y electrónicos capaces de almacenar datos sobre el estado de salud e historial del paciente, además de monitorear sus signos vitales.

Visto en La Flecha

1 2689

Escrito y compartido por Diego Valenzuela F.

LG-Network-Monitor

LG Network Monitor

Como la inversión en educación siempre es de gran demanda, una gran cantidad de instituciones no ha remplazado sus antiguos computadores, incluso, el hecho de invertir en nuevos y costosos sistemas computacionales, hace imposible invertir en otras áreas. La solución multiusuario dada por el LG Network Monitor es una alternativa que soluciona los problemas tanto de costo como de administración. El LG Network Monitor permite realizar en forma simple las tareas de mantenimiento, reparación, remplazo y actualización del computador principal, creando un ambiente estable para el usuario. Dado esto, se puede dar a una mayor cantidad de estudiantes la posibilidad de educarse a través de un sistema computacional de menor costo y con un menor esfuerzo.

El alto costo en mantención, en hardware, licencias y energía entre otros, provoca un derroche de recursos que no se justifica debido a la gran capacidad de procesamiento que tienen los computadores hoy en día, es por esto que LG ha creado el nuevo   LG Network Monitor

Básicamente  El LG Network Monitor, permite que un PC sea compartido con muchos usuarios, con el mismo desempeño y velocidad que un PC dedicado a cada uno.

Actualmente un usuario promedio ocupa menos de un 10% de la capacidad de un computador. Con esta solución se puede redistribuir el 90% de capacidad restante a varios usuarios simultáneamente.

¿Cómo funciona?

Muy simple: cuando es conectado a un computador individual, el LG Network Monitor permite a múltiples usuarios utilizar sólo un equipo, dando una perfecta solución de computación virtual. Adicionalmente, el monitor utiliza un computador normal como principal, que permite a cada usuario realizar tareas virtuales realmente rápido, como si ellos estuviesen utilizando archivos y aplicaciones en su propio PC. Con esta solución se reducen los costos de actualización de hardware en por lo menos un 60% por año, y reducir los costos de mantenimiento en un 70% o más, además reduce el gasto en licencias para los software, ya que con una licencia cada 11 equipos es suficiente.

Además de esto el profesor o encargado de sala, puede ver en su monitor las pantallas en miniatura de los 10 LG Network Monitor e interactuar con ellos, guiando así a sus alumnos en la ejecución de tareas y avances, lo que podría traducirse en “estar en el cuaderno de alumno”, por lo que el uso de los computadores podría derivar de su uso actual (la familiarización de los alumnos con la informática) a una herramienta para educar, asociada al proceso educativo.

Ventajas de LG Network Monitor

Educación

Ventajas académicas

  • El profesor ve simultáneamente a todos los alumnos evitando retrasos involuntarios.
  • Asociado al proceso educativo y no solo a la familiarización con tecnología.
  • Monitoreo permanente de lo que visualiza el alumno evitando los riesgos propios de la red.
  • Proceso de enseñanza aprendizaje efectivo y bajo una supervisión eficiente.

Cuadro comparativo entre los computadores convencionales y el LG Network Monitor

Cuadro comparativo entre los computadores convencionales y el LG Network Monitor

Cuadro comparativo entre los computadores convencionales y el LG Network Monitor

Compromiso con el medio ambiente

Al reducir la cantidad de computadores a usa, El Network Monitor ayuda al medio ambiente, transformándolo así en el computador mas ecológico del mundo, debido a su bajo uso de energía, 90% menos generación de calor, 90% menos de generación de chatarra electrónica y por último la disminución de la contaminación acústica propia de los computadores convencionales, también en un 90%

Otras aplicaciones

Acceso publico

Los computadores utilizados en instalaciones públicas (Cyber cafés), tiene distintos propósitos como trámites, acceso a información y uso personal, siendo fundamental el acceso a estos servicios. El LG Network Monitor es una solución que rápidamente puede resolver estos problemas, en especial cuando se cuenta con un presupuesto limitado. Habilitando hasta 10 accesos con un solo PC. El LG Network Monitor además de facilitar el acceso a los servicios públicos, también permite generar en la gente confianza en estos. Esto es ofreciendo una configuración optima con un presupuesto limitado, maximizando la eficiencia de la operación requiriendo solo el mantenimiento del PC principal.

Video testimonio

Puedes encontrar más información de esta tecnología en www.networkmonitor.cl

Buscaron tambien:

0 1201
Gobierno de Chile

Gobierno de Chile

Según explica el Secretario Ejecutivo de Desarrollo Digital, Alfredo Barriga: “Sólo por mencionar un ejemplo, cada ministerio ha contratado por separado recurso informático de pago de remuneraciones, en circunstancias que teniendo necesidades tan similares, perfectamente pudieron compartir una solución con adaptaciones puntuales“, señala.

El nuevo escenario permitiría que cuando un ministerio o servicio público contrate una solución tecnológica, ésta quede bajo un licenciamiento común que faculte traspasarla a otros organismos de gobierno que quieran utilizarla. El modelo aplicaría para los llamados desarrollos informáticas “a medida” y no así para software comercial.

La iniciativa esta siendo discutida esta semana en el Ministerio de Economía, -del cual depende la Secretaría de Desarrollo Digital – junto con especialistas en derecho informático, los jefes de informática del Gobierno y las representantes de la industria de Tecnología de Información.

Visto en La Flecha

0 1236

kaspersky_labKaspersky Lab ha patentado con éxito una tecnología innovadora en los EE.UU. que permite la estimación exacta del impacto potencial que una epidemia de malware puede tener, lo cual ayuda a detener su propagación.

Una de las causas por las que un malware específico se extiende rápidamente por todo el mundo es porque se hace una detección en cada equipo en lugar de hacer un seguimiento general y determinar posibles epidemias. Lo que se necesita es un método que permita identificar fácilmente el origen de una epidemia y pueda estimar el grado y forma de propagación.

Esto es en resumen lo que permite hacer la tecnología de Kaspersky Lab, la cual ha sido recogida por la patente número 7743419 de la oficina de patentes y marcas de EE.UU el 22 de junio de 2010.

Esta tecnología funciona mediante el análisis de las estadísticas sobre amenazas informáticas, obtenidas de una red de vigilancia mundial. La red realiza un seguimiento del número de descargas de programas de malware, los ataques iniciados por los piratas informáticos, así como otros problemas de seguridad, registrando el tiempo cuando se producen, el origen y la localización geográfica.

Una epidemia se detecta en su fase inicial y su propagación se supervisa en tiempo y localización. Entonces, la seguridad y las medidas eficaces de protección puede ser efectuadas de manera oportuna.

La información ofrecida por la tecnología de Kaspersky Lab puede utilizarse por todos los países que se enfrentan a problemas de seguridad, y así iniciar la protección.

Visto en Blog Antivirus

1 1623

Google-Yahoo-BingGoogle encontrará antes de buscar. Parece un acertijo pero es el nuevo objetivo de los ingenieros del principal buscador, y también de sus competidores. Con los datos que tienen en sus servidores, más lo que saben de cada uno de sus usuarios, en poco tiempo podrán ofrecer información relevante al internauta antes incluso de que abra el navegador. El precio a pagar es alto: renunciar a la privacidad.

El ingeniero jefe de búsquedas de Google, Amit Singhal, estuvo ayer en Madrid para dar una charla sobre el pasado, presente y futuro de las tecnologías de búsqueda. Sólo dedicó 15 minutos, más las preguntas, al porvenir, pero el panorama que dibujó será muy diferente al actual. Hoy Google ofrece información pasada o, como mucho, la recién publicada en internet, gracias al nuevo sistema de búsqueda en tiempo real que presentó en abril. Pero en dos años podrá anticiparse a las necesidades del usuario.

“La privacidad no debe frenar la innovación”, dice un ingeniero de Google

Singhal puso varios ejemplos. En uno, el usuario comparte su agenda de actividades con el buscador. De esta manera, conoce cuándo tiene un rato libre para, por ejemplo, comprar algo que tenía apuntado. Gracias al móvil, Google puede localizarlo y ofrecerle tiendas a su alrededor. El trabajo más duro, el de mostrar las ofertas en su web, lo hace el dueño de la tienda. En otro ejemplo, ante una reunión en un punto concreto de la ciudad, Google News sabrá que, minutos antes de la cita, se ha producido un gran accidente en la zona. El buscador podrá avisar al usuario mostrando el suceso sobre el mapa, dándole alternativas para llegar.

La tecnología ya existe

“La tecnología necesaria para conseguirlo ya está disponible”, aseguró Singhal. Pero cree que el servicio se pondrá en marcha dentro de entre dos y cinco años. El retraso no es esencialmente tecnológico. “Antes necesitamos investigar más para que el servicio respete la privacidad”, explicó. La clave del éxito de esta anticipación a los deseos es que el buscador sepa lo más posible del usuario: donde está en ese momento, su historial de búsquedas anteriores en internet o su agenda personal.

“Lo que uno busca ya lo han buscado otros muchos antes”, dice Yahoo

Singhal recordó que un servicio así sólo puede funcionar con el consentimiento expreso del internauta. Pero también reconoció que sin ese ok su eficacia sería muy reducida. “En la historia de la tecnología, con cada cosa nueva surgían problemas”, comenta. Y puso el ejemplo de la aparición de la imprenta, cuando la iglesia lanzó advertencias de que podrían surgir biblias con contenido corrompido. “Todas las tecnologías pueden usarse de forma perversa; los buscadores, como la medicina, han mejorado la vida, pero podrían ser usados para el mal”, añadió.

El ingeniero de Google parece emplazar al usuario a elegir. “La clave está en que la privacidad sea una prioridad pero, al mismo tiempo, no hay que dejar que frene la innovación tecnológica que mejora nuestras vidas”.

Adivinar la intención

“Internet sabrá lo que todo el mundo está haciendo”, asegura Ballmer

Para el responsable del centro de investigación que Yahoo tiene en Barcelona, Ricardo Baeza-Yates, el objetivo es que el usuario deje de trabajar. “Que la búsqueda sea implícita, que te la dé antes de ir a buscarla”, explica. Para ello hay que imaginar los deseos del internauta. Pero no se trata de jugar a ser adivinos. “Anticiparse significa saber qué hacías antes para ver qué vas a hacer después”, aclara. Si alguien busca en Yahoo un vuelo, lo más probable es que a continuación necesite un hotel, ejemplifica.

La base de este razonamiento está en la biología: somos seres de costumbres. “Muchas de las cosas que hacemos son previsibles”, señala Baeza-Yates. Además, las personas no son muy diferentes unas de otras. Lo que uno busca ya lo han buscado otros muchos antes. “Si consigues deducir cómo buscan los grupos, el problema de la privacidad deja de serlo”, asegura el ingeniero de Yahoo.

En una reciente charla en la Universidad de Sao Paulo, el presidente de Microsoft, Steve Ballmer, puso un ejemplo de cómo pueden aprovecharse los buscadores de este hecho biológico. Cuando la compañía lanzó Bing incorporó un corrector ortográfico similar al que lleva su Microsoft Word. Pero a diferencia del procesador de textos, este corrector se apoya en su conexión a internet, lo que permite analizar los fallos de muchos. “Y ahora tenemos literalmente millones y millones de personas equivocándose con las mismas palabras, lo sabemos en tiempo real, y el corrector es mejor. La nube [en referencia a la informática en la red] aprende y te ayuda a aprender”, dijo. Con este ejemplo, Ballmer dibujó el porvenir de las búsquedas: “En el futuro, internet sabrá qué estás haciendo cada vez más, con tu permiso, entenderá lo que estás haciendo, y sabrá mejor cómo servirte, o verá lo que todo el mundo está haciendo y usará este conocimiento para servirte mejor”, declaró.

Inteligencia colectiva

Los primeros ejemplos de esta inteligencia colectiva almacenada en los servidores de los buscadores ya pueden verse. Google Suggest , por ejemplo, sólo necesita que se ponga la palabra España en la casilla para mostrar sugerencias que intentan adivinar lo que se está buscando. Antes de acabar la frase, la web ofrece acabarla con “Mundial 2010” o con alguno de los contrincantes con los que se ha topado el equipo español de fútbol en Suráfrica.

En este caso, Google se ha apoyado en las recientes búsquedas que han hecho millones de personas en los días pasados para anticiparse. Además cuenta con otras herramientas. Así, aprovecha el historial de navegación, por ejemplo, para conocer qué páginas se han visitado previamente. La dirección IP (que identifica al ordenador en internet) les ayuda a ubicar al internauta para que la información le resulte cercana.

El último elemento clave es la información creada por los propios usuarios en redes sociales y blogs. Google, como Yahoo y Bing, ya no buscan sólo en viejos archivos; ahora rastrean la información en tiempo real. Mediante acuerdos con sitios como Facebook, Twitter o las principales redes de blogs, los buscadores pueden saber qué se está cociendo en internet al instante. En Google, por ejemplo, aparecen las actualizaciones de Twitter a los dos segundos de producirse. El problema que genera esta inmediatez es que es difícil saber qué mensaje en Twitter o qué post en un blog es más relevante.

Pero para que se cumplan los vaticinios de Singhal, Baeza-Yates y Ballmer, las webs han de entender también lo que se busca. “Adivinar lo que el usuario quiere con sólo dos palabras es complicado”, recuerda Baeza-Yates. El problema es que ambas partes, personas y máquinas, “han aceptado este tipo de comunicación minimalista”, añade. Para él, lo importante es darle significado a las búsquedas que hoy son sintácticas.

Visto en Público