Reconocida como una empresa innovadora y siempre a la vanguardia en la implementación de nuevas tecnologías, el Grupo Gtd se ha posicionado como uno de los pioneros en materia de redes de Fibra Óptica en el país.
Con su concepto eje de “Gente Totalmente Dispuesta”, el Grupo Gtd se ha posicionado como una empresa líder en innovación, no sólo desde el punto de vista tecnológico, sino que también ha sabido hacerse un espacio importante en el mercado, gracias a que ha orientado su funcionamiento al reconocer a cada uno de sus clientes, así como el ofrecerles soluciones personalizadas de acuerdo a sus requerimientos.
Es este espíritu de liderazgo el que ha llevado a la compañía a ser la precursora en materia de Fibra Óptica en el país, con la instalación de su primera red monomodo en el centro de Santiago en 1991 y posteriormente, con la incorporación de esta tecnología a los hogares en el2008, através de las filiales del Grupo Gtd, Gtd Manquehue y Telefónica del Sur.
Sin embargo, este salto tecnológico, de nada serviría si no se contara con una infraestructura que pueda sostener el inmenso flujo de información que corre a través de ella, razón por la que el Grupo Gtd ha desarrollado sistemas de alta capacidad, robustos, eficientes, confiables y capaces de manejar grandes flujo de información.
“En un inicio, estas redes estaban orientadas para ofrecer servicios al sector empresarial, pero al ir incorporando nuevas tecnologías, surgió la necesidad de incorporar el servicio de fibra óptica a los hogares, pues los requerimientos de este segmento han sido cada vez más exigentes, razón suficiente que ha llevado a la compañía a levantar una red que actualmente supera los18.500 kilómetrosde tendido entre Arica y Cochrane”, afirma Mauricio Bernstein, director de tecnología del Grupo Gtd.
“Para nosotros, prosigue el ejecutivo, implementar estos sistemas ha resultado en un desafío constante, pues a medida que vamos introduciendo nuevas tecnologías y ampliamos la oferta de servicios hacia nuestros clientes, éstos a la vez aumentan sus exigencias desde el punto de vista de sus requerimientos, ante lo cual nos obligamos a mejorar en nuestras respuestas, lo que genera una espiral ascendente en lo que se refiere a la calidad de nuestros servicios”.
El Servicio FTTH
Más allá del servicio de fibra ofrecido a las empresas hace más de dos décadas, las filiales del Grupo Gtd, Telefónica del Sur y Gtd Manquehue, desde el año 2008 han expandido su servicio a los clientes residenciales, abarcando más del 25% de su cartera de este sector.
Esto se explica por la creciente necesidad de información que interesa a las personas. Se puede decir que el uso de Internet ha sido un aspecto clave en este sentido, ya sea para utilizar aplicaciones de TV, conectarse a las redes sociales, conectarse con otras personas para jugar en línea o simplemente revisar el correo electrónico y descargar un archivo adjunto.
“Probablemente quienes más nos han ayudado en la integración de la fibra óptica a los hogares sean los gamers. La necesidad de mantener una alta velocidad de conexión para sobrevivir en un juego del mundo virtual, los convierte en uno de los clientes más exigentes, lo que a su vez nos ha llevado a responder a esas necesidades, lo que implica beneficiar al resto de la cartera del segmento”, explica Juan García, gerente de mantención e instalaciones del Grupo Gtd.
Tanto para el sector corporativo, como para los clientes del sector residencial, el Grupo Gtd ha desarrollado una serie de soluciones que apuntan a responder a los requerimientos de cada uno de ellos. “Esta flexibilidad, se hace posible gracias a la incorporación de la fibra óptica a sus sistemas, pues si hay algo que caracteriza a estas redes, es su infinita capacidad de soportar información. Esto permite, por ejemplo, enviar una señal de televisión sin comprimir, lo que sin duda mejora la experiencia del usuario. Lo importante es que gracias a esta tecnología, sumada a nuestra filosofía de trabajo, siempre estamos en condiciones de responder a los requerimientos cada vez más exigentes, de nuestros clientes” concluye el ejecutivo.
[sws_blue_box box_size=”610″]
Algunos hitos de la fibra óptica en el Grupo Gtd
1991: Gtd Teleductos despliega la primera red de abonados de fibra óptica en América.
2006: Grupo Gtd realiza las primeras pruebas para implementar la red de fibra óptica al hogar (FTTH).
2008: Gtd Manquehue despliega la primera red FTTH del país, beneficiando a más de 2.000 clientes de Santiago.
2010: Tras al adquisición de Telefónica del Sur, se completa la red de Fibra Óptica en la zona sur del país.
2012: Actualmente la red de fibra óptica del grupo Gtd en Chile cubre más de 18.500 kilómetros. [/sws_blue_box]
[sws_blue_box box_size=”610″]
Algunos hitos de la fibra óptica en el Grupo Gtd
No cabe duda de que en la historia de las telecomunicaciones habrá un antes y un después de la fibra óptica pues su capacidad para transmitir información tiene alcances ilimitados.
Entre algunas de sus ventajas destacan:
Ancho de banda prácticamente ilimitado.
Transmisión de datos de alta velocidad.
Resistencia a cambios drásticos de temperatura y condiciones climáticas extremas.
Insensibilidad a interferencias electromagnéticas
Mayor seguridad en el tráfico de información, ya que cualquier brecha de seguridad es fácilmente detectable. [/sws_blue_box]
El auge de la Wi-Fi está categóricamente asentado ya en nuestra sociedad. Desde cafeterías, restaurantes, centros comerciales, ayuntamientos, aeropuertos, hoteles, etc.. ofrecen conexión a internet gratis mediante una señal wireless sin contraseña y de tenerla la facilitan sin miramientos.
Esto es una gran ventaja y nos permite estar “enchufados” a la red, tanto con nuestro portátil personal, del trabajo, nuestra tablet, o nuestro smartphone sin “quemar” los MB de nuestra tarifa de datos en el caso de que la tuviéramos (hoy en día casi todo el mundo).
Por tanto, podemos usar esta conexión para conectarnos a las ansiadas y admiradas redes sociales, conectar a nuestro blog para publicar nuestro último post, etc.
Pero no nos emocionemos tan rápidamente. Este tipo de conexiones pueden ser veraces, y destinadas a un buen uso pero pueden estar infestadas con algún avispado amigo de lo ajeno, provisto con Firesheep. ¿Pero que es Firesheep?
Firesheep, es una herramienta (addon) para Firefox la cual captura todo el tráfico de una red Wi-Fi, teniendo la habilidad de robar las “cookies” que se generan cada vez que nos logueamos en una red social (por ejemplo). Así podías robar la identidad del prójimo y acceder a su cuenta. Por supuesto es algo ilegal. Esta utilidad hará unos dos años que salió, y aprovechaba que el usuario no tuviera activado el cifrado SSL.
Por tanto, girando en torno al cifrado SSL vamos a seguir una serie de rutinas básica de seguridad para no ser “secuestrados”.
Activar acceso SSL a nuestras redes sociales.
Es imperativo irnos a las opciones de configuración de nuestras redes sociales y activar el cifrado SSL. Para que así al navegar, podamos observar en la cabecera de nuestro navegador “htppS://”
También nuestro correo ha de estar bajo “https://” para evitar las “garras” de Firesheep. Normalmente Gmail y otros servicios de correo por web, ofrecen ya activada la funcion https pero en clientes de correos llámese Outlook o Thunderbird, podemos haber configurado la cuenta sin las opciones de seguridad SSL ó sin tener la contraseña cifrada.
Extensiones que fuerzan la conexión SSL.
Existen extensiones para diferentes navegadores que pueden ayudarnos a mantener conexiones seguras de forma general, ya que el intentar configurar todos los servicios que usamos para que usen conexiones cifradas puede llegar a desesperarnos.
Estas extensiones ayudarán a mantener el https bajo las webs mas reconocidas, como Twitter,Amazon, Facebook, etc.
Las extensiones mas usadas son:
Chrome: KB SSL Enforcer
Firefox: Force-TLS o HTTPS Everywhere
Opera: Redirect to HTTPS
Internet Explorer: Para variar el navegador del gigante informático, sólo ofrece configurarlo entre sus opciones, pero sitio por sitio.
VPN: Virtual Private Network.
Este sistema protege y aisla el tráfico, creando un canal de comunicación muy seguro. Se cifra mediante IPsec (ó SSL) el cual hace que cada paquete que se intercambia con el otro extremo de la conexión sea cifrado. Por tanto, levantamos con este método, una barrera más para que no intercepten nuestra información, ni roben nuestras cookies, ni nuestras contraseñas.
Gestión de blogs, Webs o foros.
Por supuesto si eres administrador de algún sitio web, foro, blog, etc… es recomendable activar los puntos anteriormente mencionados. Siempre usando HTTPS, para evitar que nos hurten nuestros datos, o secuestren nuestras sesiones.
Para WordPress, existe un complemento llamado WordPress HTTPS que nos fuerza a usar HTTPS en la página de administración.
Estos pasos no son, para nada, de una dificultad elevada y todo el mundo podría protegerse un poquito más por sí misma, y no dar tantas facilidades. No hay que dejarse llevar por la emoción de encontrarse una Wi-Fi libre, porque simplemente, una Wi-Fi libre puede haber sido creada única y exclusivamente para el robo de información.
Con el pasar de los años, los teléfonos móviles han experimentado una intensa evolución que ha llevado a utilizar desde gigantescos equipos hasta los actuales smartphones, dispositivos que poseen características similares a las de una computadora portátil. Estos teléfonos inteligentes permiten hacer cada vez más tareas como conectarse a Internet y compartir en redes sociales, navegar en la web, revisar el correo electrónico, y realizar trámites bancarios en línea, entre otros.
Sumado a lo anterior, los usuarios almacenan cada vez más información personal y sensible que además de estar expuesta al robo físico del dispositivo, puede resultar valiosa para los ciberdelincuentes que buscan obtener ganancias ilícitas utilizando códigos maliciosos u otras amenazas. Pese a que no todos los sistemas operativos del mercado móvil son igual de atacados por códigos maliciosos, existen varias recomendaciones generales que aplican a todo tipo de casos, dispositivos (smartphones, tablets o similares) y usuarios.
En base a todo lo anteriormente mencionado, ¿cuáles son las principales amenazas que afectan a los dispositivos móviles? ¿Qué medidas puede adoptar el usuario para mitigar el impacto de este tipo de ataques y peligros? La presente guía busca responder ambos interrogantes para que las personas puedan hacer un uso seguro y consciente de estos dispositivos móviles.
Buscar empleo se ha convertido, desde hace algunos años, en un proceso que dista mucho de las antiguas tácticas convencionales para encontrar trabajo. Y es que, emplearse actualmente pasa en gran medida por el uso de los nuevos medios de comunicación, especialmente, el mundo 2.0.
Las páginas de empleo online y las redes sociales han venido a complementarse con los medios más clásicos, como las páginas de clasificados de los periódicos o las agencias temporales de trabajo, de cara a conseguir el empleo que se ajuste a la categoría profesional de cada ciudadano.
Del mismo modo, en la actualidad resulta extraño encontrar empresas sin presencia en la red, ya que la mayoría de los negocios han comprendido la necesidad de encontrar mayor visibilidad a través de un medio tan dinámico como es Internet. Este uso de la red por parte de las compañías, que han tomado conciencia de la importancia de interactuar con sus clientes actuales y potenciales, ha tenido una consecuencia directa, que las ofertas de empleo se realicen también a través de este medio.
Y es que, a pesar de que existen sectores profesionales en los que el uso de la tecnología es realmente reducido, es difícil no encontrar en la red las ofertas para realizar diversos trabajos para la mayoría de las empresas, ya sea en páginas de avisos, como Yapo o Buenacuerdo, o en las propias redes sociales como Linkedin. Las compañías, de este modo, no han dejado de comprender las ventajas de internet en cuanto al ingente número de usuarios, lo que favorece también encontrar profesionales adecuados a los puestos que en un momento determinado necesiten cubrir.
Por otra parte, a la hora de buscar empleo, es fundamental tener presente que tener un currículum y perfil actualizado en alguna plataforma de empleo virtual o red social, nos servirá de gran ayuda a la hora de encontrar una salida laboral. Además, favorecerá que conozcamos gente de nuestro sector, nuevas empresas donde poder emplearnos, y las actualizaciones de interés por parte de las diferentes compañías que nos interesen.
Si algo es cierto es que nunca se conoce con certeza dónde estará la oportunidad, por lo que combinar la búsqueda entre medios clásicos y modernos para encontrar empleo, aumentará nuestras posibilidades de encontrar trabajo. Los pasos esenciales que debemos seguir para conseguir emplearnos son:
En primer lugar es necesario acudir a una oficina oficial de desempleo e inscribirnos. De este modo no existirá ningún tipo de impedimento legal a la hora de la contratación. De la misma forma, las oficinas de empleo suelen ofertar trabajos a los que podremos acceder sólo en el caso de estar inscritos.
Recurrir a las páginas de empleo de los medios tradicionales, como los periódicos y las agencias de trabajo temporal, es otra forma eficaz de encontrar un posible empleo. Utiliza especialmente este sistema si tu sector de actividad profesional tiene poca relación con las tecnologías.
Introducir nuestro currículo actualizado en los portales de empleo en la red se convertirá en otro paso esencial para emplearnos. Es fundamental tenerlo siempre al día y ser activos en nuestro perfil para dar imagen de interés a las empresas.
Crear un perfil en redes sociales, especialmente LinkedIn y Twitter, las más profesionales. Tener cuenta en Facebook también puede convertirse en una útil herramienta para encontrar trabajo y contactos laborales.
Comenzar un blog también puede convertirse en una oportunidad, ya que será nuestra carta de presentación digital para las empresas que ofrezcan puestos de nuestro sector. Habla de lo que te gusta y conoces y opina sobre algún segmento del mercado. No olvides incluir tu currículum y una dirección de correo electrónico u otra forma de contactarte.
Recuerda siempre que buscar un trabajo que realmente se corresponda con tus intereses, se convertirá en un trabajo en sí mismo.
Este año el Día Internacional de Internet Seguro, que se celebra el ocho de febrero, tendrá el lema “Internet es algo más que un juego, es tu vida”, y pretende educar a los internautas sobre los peligros existentes en la red.
El evento se celebrará en más de 60 países de todo el mundo, intentando mostrar como nuestra presencia en la web, las redes sociales, los juegos online, etc, puede influir en nuestras vidas reales.
Para Juan Romero, su fundador, “se trata, sobre todo, de evitar situaciones que puedan poner en riesgo la seguridad de nuestros hijos y la de toda la familia”, “Y no hablamos solo del ordenador, sino también del móvil. Porque muchos de estos aparatos disponen de Internet, por lo que los adolescentes pueden conectarse en cualquier momento y lugar, sin la necesaria supervisión de los padres”.
El equipo del Laboratorio de la empresa desarrolladora del multipremiado antivirus ESET NOD32 advierte sobre el afianzamiento del malware dinámico como tendencia para el 2011, apoyado en el creciente desarrollo de las botnet.
Las redes botnet serán protagonistas durante el próximo año, afirmando la tendencia observada durante el 2010: mayor cantidad de malware del tipo bot, aumento en la cantidad de redes activas y más cantidad de equipos zombis, según el informe “Tendencias 2011: las botnet y el malware dinámico” de la compañía líder en seguridad informática ESET.
Asimismo, el monto recaudado por los administradores de este tipo de redes también aumentará y se verán innovaciones en las tecnologías de las mismas. Esta tendencia incrementará el trabajo enfocado a dar de baja este tipo de redes delictivas. Asimismo, el monto recaudado por los administradores de este tipo de redes también aumentará y se verán innovaciones en las tecnologías de las mismas. Esta tendencia incrementará el trabajo enfocado a dar de baja este tipo de redes delictivas.
Entre las principales, se pueden mencionar:
Auge de las botnet y el fin del malware estático
Los códigos maliciosos dinámicos son aquellos que primero infectan el sistema y luego, a través de algún acceso remoto al equipo afectado, permiten al atacante realizar diversas tareas mientras el equipo no sea desinfectado.
Las botnet son la confirmación del malware dinámico en conjunto con el negocio delictivo: los equipos zombis pueden ser utilizados en cualquier momento por el administrador de la red para realizar diversas tareas que por lo general están asociadas a diversos delitos informáticos, tales como el robo de información, ataques a través de Internet o envío de spam, entre otros.
Según los datos relevados por el Laboratorio de ESET Latinoamérica, a noviembre de 2010 fueron detectadas unas cinco mil quinientas botnet (habiendo llegado a seis mil en meses como mayo o julio de 2010), contra los pocos más de cuatro mil de finales del año anterior. Según esta tendencia se estima que durante el 2011 la mayoría de los usuarios infectados con cualquier tipo de código malicioso podrían formar parte de una botnet.
El principal motivo del auge de las botnet y de la gran cantidad de usuarios infectados está basado en que el atacante obtiene un importante rédito económico por los servicios delictivos brindados por estas redes. Además, necesitan de muy poco dinero inicial para armar este tipo de red delictiva ya que pueden obtener paneles de administración y malware del tipo bot a muy bajo costo.
Desarrollo de malware multiplataforma
Como alternativa más rentable para los desarrolladores de malware aparece la creación de códigos maliciosos multi-plataforma, archivos que pueden afectar a diversas plataformas con un mismo fin, o bajo un mismo modelo de infección. Un ejemplo de esta tendencia se observó a finales de año, con la aparición de una nueva variante del troyano Koobface, conocida como Boonana e identificada por ESET con la firma Java/Boonana.A. Esto implicó entonces la primer versión multi-plataforma de este troyano que está en actividad desde finales de 2008 y que, dos años después de su creación, expande su propagación más allá de sistemas Windows, infectado también sistemas Linux y Mac OS.
También esta tendencia se observó a principio de año con un experimento realizado para crear botnet en plataformas móviles con iPhone y Android, obteniendo más de ocho mil dispositivos afectados.
BlackHat SEO Social
Hoy en día prácticamente ningún usuario de Internet pasa un día completo sin realizar una búsqueda en la web o utilizar alguna red social. Durante el próximo año este dato tampoco será ignorado por los atacantes, por lo que se estima que incorporen nuevas tendencias basadas en los ataques ya existentes para estos dos servicios.
En materia de buscadores, se espera una optimización en los tiempos de posicionamiento, es decir, una menor demora entre la ocurrencia del evento usado como anzuelo y su ubicación en resultados envenenados por medio de técnicas de BlackHat SEO.
Las redes sociales, por su parte, ganan cada vez más usuarios, por lo que es esperable que continúen siendo usadas como medio de propagación de malware, phishing, spam o scam entre otras amenazas informáticas.
A su vez, es probable que el hecho de que los buscadores comiencen a mostrar no sólo sitios web, sino también resultados en redes sociales origine una nueva forma de BlackHat SEO basada en las redes sociales, donde ya no es necesario para los atacantes la creación de sitios web envenenados sino que pueden hacerlo directamente con perfiles falsos generando contenidos que enlacen a malware.
“El malware dinámico apoyado en el crecimiento de las botnet, el desarrollo de malware multiplataforma y el BlackHat SEO Social serán noticias en el 2011. Sin embargo, también continuarán consolidándose ataques informáticos que ya casi son clásicos y que se sumarán a las tendencias mencionadas: la explotación de vulnerabilidades, el uso de técnicas de Ingeniería Social, la apropiación de datos privados de los usuarios por medio de las redes sociales y el desarrollo de malware desde Latinoamérica”, aseguró Federico Pacheco, Gerente de Educación e Investigación de ESET Latinoamérica.
Actualmente, las organizaciones están saturadas de información puesto que los datos crecen continuamente de manera exponencial. Asimismo, cada día se anuncia o lanza al mercado una nueva tecnología con la promesa de reducir los costos al hacer negocios, ser más convenientes y oportunos.
“Debido al estancamiento y las reducciones de presupuestos de tecnología, es indispensable que las organizaciones obtengan mayor valor por sus inversiones en TI”, dijo Wilson Grava, Vicepresidente de Symantec para América Latina. “Cuando las organizaciones comprenden los desafíos, riesgos y amenazas, pueden planear e implementar iniciativas tecnológicas estratégicas como la virtualización, seguridad móvil, encriptación, las copias de seguridad y recuperación, el archivado y el cómputo en nube para proteger y administrar su información de manera más eficiente”.
Seguridad en Internet – Tendencias para 2011
Continuarán los Ataques a la Infraestructura Crítica: Hacia finales del 2010 Stuxnet – una amenaza creada específicamente para modificar el comportamiento de sistemas de hardware y generar daños en el mundo físico- tuvo un gran impacto en los sectores que utilizan sistemas de control industrial. Este hecho marcó una nueva era en cuanto a ataques informáticos y es muy probable que aquellos cibercriminales que siguieron de cerca esta amenaza hayan aprendido la lección y en 2011 veamos otros ataques direccionados a infraestructuras críticas. Con un inicio lento, se espera que la frecuencia de este tipo de ataques se incremente.
Los Ataques Segmentados y las Vulnerabilidades de Día-Cero Serán más Comunes: Este año, Hydraq, también conocido como Aurora, fue un buen ejemplo de un tipo de amenaza creciente, altamente segmentada, que busca infiltrarse en organizaciones específicas en un tipo particular de sistemas de cómputo, explorando vulnerabilidades de software hasta ese momento desconocidas. Los cibercriminales han usado estas brechas de seguridad durante muchos años pero las amenazas altamente segmentadas han ganado terreno, por lo que se prevé el surgimiento de más vulnerabilidades de día cero para los próximos 12 meses en comparación con los años anteriores.
Más Dispositivos Móviles y Nuevos Modelos de Seguridad de TI: El uso de dispositivos móviles como smartphones está creciendo a un ritmo acelerado. Gartner prevé que, al final de 2010, 1,200 millones de personas estén usando celulares con acceso a Internet e IDC estima que a final del 2010, los dispositivos Android y AppleiIOS tengan 31 por ciento de participación de mercado global. En 2011 se espera un aumento en las amenazas dirigidas a dispositivos móviles ya que el uso de éstos seguirá creciendo. Tomando en cuenta esta tendencia es probable que los dispositivos móviles se vuelvan una de las principales fuentes de pérdida de datos confidenciales en 2011.
Mayor Adopción de Tecnologías de Encriptación: El aumento de uso de dispositivos móviles de la empresa no sólo significa que será necesario enfrentar algunos desafíos para mantener accesibles y seguros esos equipos y los datos confidenciales contenidos en ellos, sino que las empresas también deberán cumplir varias regulaciones asociadas a la protección de datos y privacidad. En 2011 veremos que las organizaciones llevarán a cabo un acercamiento más proactivo para proteger los datos, como la adopción de tecnologías de encriptación para cumplir con los patrones de conformidad y evitar las multas y daños que la violación de datos pueda causar a las marcas.
Surgimiento de una Nueva Frontera en Ataques Motivados por Fines Políticos: En un estudio reciente de Symantec sobre la protección de infraestructura crítica, más del 50% de las empresas entrevistadas afirmó tener sospecha o certeza de ser víctimas de ataques con objetivos políticos específicos. En el pasado, los ataques motivados por cuestiones políticas caían en la categoría de espionaje cibernético o de ataques DoS (Denial of Service o negación de servicio) contra servicios Web. Symantec cree que Stuxnet es posiblemente sólo el primer indicador altamente visible de lo que se llamaría guerra cibernética que viene de tiempo atrás. En 2011 es probable que veamos más señales de acciones de lucha por controlar armas digitales.
Almacenamiento – Tendencias para 2011
El Siguiente Paso de la Virtualización: La virtualización ha sido uno de los más grandes cambios en 2010 y continuará influyendo en TI en el año 2011. Las empresas en todo el mundo están logrando los beneficios de la virtualización al reducir el número de servidores en sus entornos. Aunque la virtualización disminuye los costos de servidores, las organizaciones se están dando cuenta de que simultáneamente se incrementan los costos de administración y sin un plan para proteger estos entornos, no pueden obtener el retorno total de la inversión. La capacidad para realizar copias de seguridad y recuperar aplicaciones y datos de los entornos físicos y virtuales con una única solución permitirá a las organizaciones reducir los costos generales de TI y la complejidad.
Brecha en la Recuperación de Desastres en Entornos Virtuales: El número de solicitudes y la cantidad de datos en entornos virtuales aumentarán notablemente en 2011. La Encuesta 2010 de Symantec sobre Recuperación Ante Desastres reveló que, en caso de un desastre, 60 por ciento de los datos de una organización que se almacena en entornos virtuales no puede recuperarse porque las organizaciones no han implementado tecnologías de protección de datos. Considerando que el nivel de protección de las máquinas virtuales debe ser similar al que los clientes tienen en los entornos físicos, las organizaciones deben implementar tecnologías para garantizar que sus datos críticos en entornos virtuales estén a salvo de toda clase de riesgos.
El Año de Administrar Mejor la Información: Los administradores de almacenamiento deben desechar la mentalidad de ‘acumulador compulsivo’ y categorizar la información más importante en 2011. El casi infinito nivel de retención de datos está haciendo que los gastos de almacenamiento se disparen, que los tiempos de recuperación sean extensos y que existan pesadillas en e-Discovery en las organizaciones de todos los tamaños. En 2011, las organizaciones volverán a evaluar sus necesidades de retención y automatizarán su estrategia de administración de la información para mantener copias de seguridad de 30 a 60 días, archivar almacenamiento a largo plazo y eliminar todo lo demás.
Aumenta el Almacenamiento en Nube: Las tecnologías en la nube cambiarán considerablemente la forma en que se prestan los servicios en 2011. Más organizaciones aprovecharán las nubes públicas y privadas a medida que están más disponibles. Cuando nos aproximamos al 2011, las empresas necesitan administrar los recursos de almacenamiento de información por lo que surgirán herramientas para administrar este nuevo entorno complejo de almacenamiento y para que los administradores de TI puedan comprender mejor y capturar información sobre los datos no estructurados que residen en ella. Esto les permitirá utilizar plenamente los beneficios de la nube.
Derecho a elegir: Equipos, Software y Nube: Mientras el software continúa impulsando la innovación, en 2011 habrá nuevos modelos como respuesta a las necesidades de los clientes para facilitar las operaciones de TI. El cómputo en la nube, los dispositivos y servicios hospedados son ejemplos de modelos cada vez más atractivos que proporcionarán a las organizaciones flexibilidad y facilidad para su implementación.
Consolidación y Centros de Datos de Siguiente Generación: La consolidación es la prioridad del sector de TI y las organizaciones deben redefinir la infraestructura de sus centros de datos en 2011 para administrar las presiones, reducir costos y proteger los datos. Si la consolidación implica un movimiento físico, virtualización, desmantelamiento o cualquier combinación de estos aspectos, las organizaciones necesitan administrar los riesgos y la complejidad de la consolidación de los centros de datos. Además, las organizaciones deben garantizar la protección y disponibilidad de la información y las aplicaciones para evitar interrupciones no planeadas en la productividad y la pérdida de datos. No es un secreto que en 2011, la consolidación será un tema prioritario.
Proteger y Administrar los Datos en Redes Sociales: La forma en que las organizaciones colaboran se modificará en 2011. Hoy hemos visto que las empresas ya han comenzado a aprovechar más las redes sociales para mejorar la comunicación y la productividad en los negocios. A medida que esta tendencia crece, las áreas de TI deberán prepararse y comprender cómo proteger y administrar estas aplicaciones para recuperar y encontrar la información empresarial que se comunica o transmite a través de estos medios. El archivado de medios o redes sociales se volverá más importante a medida que las empresas aprovechen su poder para fortalecer neg
Intel - Imagen obtenida desde http://www.flickr.com/photos/joshb/
Intel – Imagen obtenida desde http://www.flickr.com/photos/joshb/
Intel prevé para 2011 que las tecnologías serán más inteligentes, más poderosas y más útiles. A continuación se presentan las predicciones de la compañía sobre algunas de estas tendencias:
La experiencia de la televisión inteligente se hace realidad
Espere que un gran número de empresas de televisión, cable y otras compañías de electrónica de consumo se unan a Sony, Logitech, Boxee y Cisco para entrar en los mercados de televisión y video inteligentes. A finales de 2011 estas empresas deben ser capaces de medir la aceptación de la televisión inteligente por parte del consumidor. ¿Funcionará o se apagará el interés?
Ventas aún mayores de laptops
Las ventas de laptops continuarán con un fuerte crecimiento gracias a los próximos procesadores Intel® Core™ 2011, que añaden una multitud de nuevas características de alta definición (HD) y relacionadas con los gráficos dirigidas a los consumidores, incluida la transmisión inalámbrica de contenidos para su visualización en televisores. Con capacidades de clase empresarial mejoradas, como la Intel Anti-Theft Technology, el gasto de TI en servidores, PCs y laptops también debe aumentar.
Tabletmanía, “Hibrid-ización”
El cómputo tablet, en una multitud de formatos y sistemas operativos, inundará el mercado. Espere ver también productos híbridos tablet/laptop, como un prototipo de Dell basado en la tecnología Intel que se presentará en el Intel Developer Forum; o el nuevo MacBook Air de 11 pulgadas, que tiene la apariencia y se siente como una combinación de lo mejor de los laptops, con lo mejor de los tablets.
La Ley de Moore prospera
Las innovaciones y las nuevas técnicas de fabricación siguen desafiando a los escépticos que afirman que la Ley de Moore está muerta. Esto significa que, en los próximos años, a medida que miles de millones de nuevos dispositivos adquieren capacidades de cómputo y conectividad a Internet, tendrán un desempeño significativamente mayor, con más características embebidas en el silicio, mientras que también se reducirá drásticamente el consumo de energía y se extenderá la duración de la batería.
Mayor seguridad
A medida que los requisitos de TI cambian rápidamente debido a un panorama de amenazas cada vez más complejo y a nuevos modelos de uso, incluyendo nubes y muchos dispositivos de electrónica de consumo (CE) que se conectarán a Internet, la seguridad seguirá siendo una de las máximas prioridades de la industria de TI. Durante el próximo año, la industria se centrará en las capacidades fundamentales para la protección de las infraestructuras y en el mantenimiento de los secretos, tanto personales como de negocios. Los procesadores Intel® Core™ vPro™, la adquisición de McAfee por parte de Intel y numerosos proyectos dentro de y en torno a los chips de silicio de Intel tendrán un papel muy importante al respecto.
Los PCs y los dispositivos inteligentes ganan sentidos: cómputo perceptual y consciente del contexto
Los consumidores se enamorarán de la primera ola de computadoras conscientes del contexto o perceptuales, que apalancarán las tecnologías de sensor hard y soft. Por ejemplo, un dispositivo móvil llamado Personal Vacation Assistant utiliza tecnologías de cómputo conscientes del contexto para ayudarle a sacar el máximo provecho de la experiencia de viaje. El dispositivo portátil utiliza “sensores hard” (cámaras que reconocen los objetos e información basada en GPS) y “sensores soft” (información que los viajeros introducen en el dispositivo, tal como preferencias de cocina y de agenda) para realizar recomendaciones en el lugar de paisajes que ver, lugares para comer y más.
Los consumidores comprarán marcas de confianza en una economía incierta
La incertidumbre económica seguirá siendo la fuerza motriz de una forma más ponderada de consumo y toma de decisiones por parte de los consumidores. La mayoría de los consumidores lo pensará dos veces a la hora de comprar. A pesar de este estado permanente de incertidumbre, los consumidores probablemente regresarán a las marcas conocidas, porque representan una inversión de confianza y ofrecen calidad comprobada.
Crecimiento en consumo de la TI
2011 marcará el punto en el que veremos desdibujarse las fronteras entre los dispositivos de consumo y los dispositivos empresariales. Lo vimos en 2010, con la entrada de los iPhones* y los teléfonos Droid* en las empresas. Los empleados querrán utilizar sus soluciones personales para la productividad en el trabajo y los empleadores querrán mejorar el ambiente corporativo con los dispositivos, para aumentar la productividad. La virtualización, la tecnología antirrobo, la administración remota y la seguridad traerán importantes aportes relacionados con esta tendencia.
Letreros inteligentes
Los letreros interactivos, como los de la película “Minority Report”, estarán ampliamente aceptados, incluyendo nuevos modos de interacción, como el reconocimiento de rostros y de gestos.
Revolución de los consumidores sobre energía y medio ambiente
Los consumidores pasarán de hablar sobre el manejo de su consumo de energía a controlarlo realmente con el lanzamiento de una variedad de dispositivos domésticos y servicios de manejo de la energía.
Tecnología para vehículos
Con tecnologías sofisticadas actuando como sistemas nerviosos centrales en los vehículos actuales, las nuevas tecnologías para vehículos están atrayendo un interés enorme, ya se trate de nuevas características de entretenimiento, del control por voz con manos libres de los teléfonos inteligentes, de otras tecnologías de seguridad o de funciones del conductor realizadas automáticamente por el vehículo.
Pronóstico soleado para el cómputo virtualizado en nube
La nube empresarial despegará a medida que más servicios basados en la nube se rediseñan para su uso comercial, incluyendo las redes sociales. Con la mayoría de las grandes corporaciones preparando la virtualización de sus respectivos entornos en 2010, el próximo año también verá el desarrollo de soluciones internas para la nube. Además, será posible realizar operaciones de renderización en la nube y distribuirlas a través de redes de banda ancha a dispositivos con poder gráfico modesto.
Google encontrará antes de buscar. Parece un acertijo pero es el nuevo objetivo de los ingenieros del principal buscador, y también de sus competidores. Con los datos que tienen en sus servidores, más lo que saben de cada uno de sus usuarios, en poco tiempo podrán ofrecer información relevante al internauta antes incluso de que abra el navegador. El precio a pagar es alto: renunciar a la privacidad.
El ingeniero jefe de búsquedas de Google, Amit Singhal, estuvo ayer en Madrid para dar una charla sobre el pasado, presente y futuro de las tecnologías de búsqueda. Sólo dedicó 15 minutos, más las preguntas, al porvenir, pero el panorama que dibujó será muy diferente al actual. Hoy Google ofrece información pasada o, como mucho, la recién publicada en internet, gracias al nuevo sistema de búsqueda en tiempo real que presentó en abril. Pero en dos años podrá anticiparse a las necesidades del usuario.
“La privacidad no debe frenar la innovación”, dice un ingeniero de Google
Singhal puso varios ejemplos. En uno, el usuario comparte su agenda de actividades con el buscador. De esta manera, conoce cuándo tiene un rato libre para, por ejemplo, comprar algo que tenía apuntado. Gracias al móvil, Google puede localizarlo y ofrecerle tiendas a su alrededor. El trabajo más duro, el de mostrar las ofertas en su web, lo hace el dueño de la tienda. En otro ejemplo, ante una reunión en un punto concreto de la ciudad, Google News sabrá que, minutos antes de la cita, se ha producido un gran accidente en la zona. El buscador podrá avisar al usuario mostrando el suceso sobre el mapa, dándole alternativas para llegar.
La tecnología ya existe
“La tecnología necesaria para conseguirlo ya está disponible”, aseguró Singhal. Pero cree que el servicio se pondrá en marcha dentro de entre dos y cinco años. El retraso no es esencialmente tecnológico. “Antes necesitamos investigar más para que el servicio respete la privacidad”, explicó. La clave del éxito de esta anticipación a los deseos es que el buscador sepa lo más posible del usuario: donde está en ese momento, su historial de búsquedas anteriores en internet o su agenda personal.
“Lo que uno busca ya lo han buscado otros muchos antes”, dice Yahoo
Singhal recordó que un servicio así sólo puede funcionar con el consentimiento expreso del internauta. Pero también reconoció que sin ese oksu eficacia sería muy reducida. “En la historia de la tecnología, con cada cosa nueva surgían problemas”, comenta. Y puso el ejemplo de la aparición de la imprenta, cuando la iglesia lanzó advertencias de que podrían surgir biblias con contenido corrompido. “Todas las tecnologías pueden usarse de forma perversa; los buscadores, como la medicina, han mejorado la vida, pero podrían ser usados para el mal”, añadió.
El ingeniero de Google parece emplazar al usuario a elegir. “La clave está en que la privacidad sea una prioridad pero, al mismo tiempo, no hay que dejar que frene la innovación tecnológica que mejora nuestras vidas”.
Adivinar la intención
“Internet sabrá lo que todo el mundo está haciendo”, asegura Ballmer
Para el responsable del centro de investigación que Yahoo tiene en Barcelona, Ricardo Baeza-Yates, el objetivo es que el usuario deje de trabajar. “Que la búsqueda sea implícita, que te la dé antes de ir a buscarla”, explica. Para ello hay que imaginar los deseos del internauta. Pero no se trata de jugar a ser adivinos. “Anticiparse significa saber qué hacías antes para ver qué vas a hacer después”, aclara. Si alguien busca en Yahoo un vuelo, lo más probable es que a continuación necesite un hotel, ejemplifica.
La base de este razonamiento está en la biología: somos seres de costumbres. “Muchas de las cosas que hacemos son previsibles”, señala Baeza-Yates. Además, las personas no son muy diferentes unas de otras. Lo que uno busca ya lo han buscado otros muchos antes. “Si consigues deducir cómo buscan los grupos, el problema de la privacidad deja de serlo”, asegura el ingeniero de Yahoo.
En una reciente charla en la Universidad de Sao Paulo, el presidente de Microsoft, Steve Ballmer, puso un ejemplo de cómo pueden aprovecharse los buscadores de este hecho biológico. Cuando la compañía lanzó Bing incorporó un corrector ortográfico similar al que lleva su Microsoft Word. Pero a diferencia del procesador de textos, este corrector se apoya en su conexión a internet, lo que permite analizar los fallos de muchos. “Y ahora tenemos literalmente millones y millones de personas equivocándose con las mismas palabras, lo sabemos en tiempo real, y el corrector es mejor. La nube [en referencia a la informática en la red] aprende y te ayuda a aprender”, dijo. Con este ejemplo, Ballmer dibujó el porvenir de las búsquedas: “En el futuro, internet sabrá qué estás haciendo cada vez más, con tu permiso, entenderá lo que estás haciendo, y sabrá mejor cómo servirte, o verá lo que todo el mundo está haciendo y usará este conocimiento para servirte mejor”, declaró.
Inteligencia colectiva
Los primeros ejemplos de esta inteligencia colectiva almacenada en los servidores de los buscadores ya pueden verse. Google Suggest , por ejemplo, sólo necesita que se ponga la palabra España en la casilla para mostrar sugerencias que intentan adivinar lo que se está buscando. Antes de acabar la frase, la web ofrece acabarla con “Mundial 2010” o con alguno de los contrincantes con los que se ha topado el equipo español de fútbol en Suráfrica.
En este caso, Google se ha apoyado en las recientes búsquedas que han hecho millones de personas en los días pasados para anticiparse. Además cuenta con otras herramientas. Así, aprovecha el historial de navegación, por ejemplo, para conocer qué páginas se han visitado previamente. La dirección IP (que identifica al ordenador en internet) les ayuda a ubicar al internauta para que la información le resulte cercana.
El último elemento clave es la información creada por los propios usuarios en redes sociales y blogs. Google, como Yahoo y Bing, ya no buscan sólo en viejos archivos; ahora rastrean la información en tiempo real. Mediante acuerdos con sitios como Facebook, Twitter o las principales redes de blogs, los buscadores pueden saber qué se está cociendo en internet al instante. En Google, por ejemplo, aparecen las actualizaciones de Twitter a los dos segundos de producirse. El problema que genera esta inmediatez es que es difícil saber qué mensaje en Twitter o qué post en un blog es más relevante.
Pero para que se cumplan los vaticinios de Singhal, Baeza-Yates y Ballmer, las webs han de entender también lo que se busca. “Adivinar lo que el usuario quiere con sólo dos palabras es complicado”, recuerda Baeza-Yates. El problema es que ambas partes, personas y máquinas, “han aceptado este tipo de comunicación minimalista”, añade. Para él, lo importante es darle significado a las búsquedas que hoy son sintácticas.
Durante el evento anual “Research at Intel”, la compañía ha dado a conocer la creación de una división de Intel Labs para reinventar la experiencia informática de las personas. Esta división trabajará en la experiencia con televisores, automóviles y señalización tras el profundo estudio y conocimiento de Intel sobre la forma en la que las personas interactúan y utilizan la tecnología.
Ya en “Research at Intel” se han podido conocer las primeras pinceladas de las tecnologías del futuro, “que permitirán a los dispositivos personales aprender y conocer quiénes somos y cómo vivimos, además de presentar unas técnicas que revolucionarán las redes sociales, reconocerán objetos cotidianos, interpretarán los gestos manuales e incluso leerán el pensamiento”, explican desde la compañía.
Justin Rattner, director de tecnología de Intel, ha sido el encargado de presentar la nueva división de investigación llamada Interaction and Experience Research (IXR), que se centrará en el desarrollo de nuevas experiencias del usuario y nuevas plataformas informáticas. Y es que, desde su punto de vista, nuestra participación y la experiencia con la tecnología pasarán a convertirse en una relación más personal y social gracias al empleo de los contextos individuales del usuario, informados a través de sensores, potenciados por la inteligencia de la nube e impulsados por unas interfaces más naturales basadas, por ejemplo, en gestos, voz y tecnología táctil.
“Lo que una persona valora hoy en día es la máxima experiencia personal con la información y éste es el mayor reto que se nos va a plantear en el campo de la informática en el futuro. En Intel, hemos estado desarrollando durante más de una década nuestras capacidades para mejorar la experiencia del usuario y la interacción. Con este fin, hemos creado un gran equipo de investigadores formado por técnicos especializados en interfaces del usuario y por expertos en ciencias sociales para crear la siguiente generación de experiencias. Hemos aprendido, por ejemplo, que la experiencia de la televisión no es igual a la de la Web, incluso ahora, cuando es posible que un mayor número de contenidos de TV sean distribuidos a través de Internet”, explica Rattner.
La nueva división estará dirigida por Genevieve Bell, una antropóloga centrada en el diseño y la tecnología para los usuarios. Desde su punto de vista, “Intel abarca ahora más facetas en la vida de una persona y va más allá del PC. Los chips de Intel e Internet se encuentran ahora en televisores, decodificadores de TV digital, aparatos de bolsillo, automóviles o dispositivos de señalización”.
Así, entre sus objetivos, Intel Labs pretende conseguir el desarrollo de la próxima generación de tecnologías diseñadas para mejorar la experiencia del usuario. Por ejemplo, la idea de que los dispositivos conozcan lo que ocurre a su alrededor, se comuniquen entre sí, cambien su conducta o realicen acciones basándose en el entorno, es esencial para mejorar la experiencia del usuario.
Entre otros proyectos, se mostró un ejemplo futurista: un ordenador que puede leer los pensamientos de los usuarios, lo que podría sustituir la necesidad de teclear.