En su blog, Thomas Baekdal señala los métodos con los que una contraseña puede ser revelada:
El hacker pregunta por tu contraseña estafando al sistema de alguna forma.
El hacker lo averigua. A la gente le gusta las frases sencillas para poder recordarlas. Como el día de nacimiento.
El hacker decide realizar un ataque masivo. Simplemente se dedica a escribir todas las contraseñas posibles al mismo tiempo relacionadas con la persona en cuestión.
El hacker ataca a un tercero con una lista de palabras comunes.
El hacker usa un diccionario de aproximación usando un diccionario completo de palabras y accede a la red.
Departamentos de tecnología informática animan a la gente a usar complejas contraseñas para que sean dificiles de desbloquear. El problema se encuentra en que la gente los escribe en una hoja de papel. La clave está en utilizar más de una palabra común. Tres palabras comunes se convierten para el hacker en una tarea imposible.
Usando estas indicaciones Baekdal calcula que adivinar la contraseña llevaría al hacker aproximadamente:
2.537 años a través de un ataque común.
1.163.859 años utilizando un método de ataque masivo.
39. 637.240 años usando un diccionario de ataques.
Respecto al proveedor, lo que debe hacer es asegurar la red:
Ganando tiempo retrasando los intentos para iniciar la sesión. En lugar de permitir a la gente inscribirse otra vez y otra, puede añadir cinco segundos de retraso entre cada intento.
Añadir un periodo de sanción si la persona ha tecleado el password incorrectamente más de diez veces. Esta acción complica la tarea del hacker también. Sumando tiempo de retraso el proveedor protege al usuario y lo recompensa si sigue un método para el uso de palabras.
ESET pone a disposición un listado de 10 consejos con el fin de dar a conocer las principales prácticas para evitar la fuga de información en entornos corporativos.
En las últimas semanas uno de los temas más resonantes en materia de Seguridad Informática fue el de la fuga de información debido a los acontecimientos suscitados por el caso Wikileaks.
Estos sucesos abrieron el debate sobre la privacidad y la confidencialidad de la información y sobre cuáles son las mejores prácticas para evitar incidentes que pongan en peligro información sensible.
Por este motivo, los especialistas en seguridad informática de ESET Latinoamérica han elaborado un decálogo de hábitos básicos de seguridad para mantener la protección e integridad de los datos:
Conocer el valor de la propia información. Realizar un análisis de riesgos y un estudio de valuación de activos para poder determinar un plan de acción adecuado que permita evitar posibles filtraciones.
Concientizar y disuadir. Diseñar una estrategia de concientización que incluya la responsabilidad en el manejo de la información, que funcione tanto para capacitar a las personas que podrían filtrar información por error u omisión, como para persuadir a las que deliberadamente intenten hacerlo, mostrando las potenciales consecuencias.
Utilizar defensa en profundidad. Considerar el modelo de defensa en capas para tomar distintas medidas de diferente naturaleza a fin de no centralizar las soluciones ni promover puntos únicos de falla.
Incluir herramientas tecnológicas. En ámbitos corporativos resulta muy importante contar con una solución técnica de protección, por medio de hardware, software, o combinación de ambos, tanto a nivel de redes como de equipos (servidores y estaciones de trabajo). El crecimiento de amenazas como el spyware hace que los códigos maliciosos también sean potenciales puntos de fuga de información.
Seguir los estándares internacionales. Alinearse con estándares internacionales de gestión de la seguridad permite disminuir el riego de incidentes y evitar que el negocio se vea afectado por un determinado evento de filtración.
Mantener políticas y procedimientos claros. Relacionado con el punto anterior, se debe tener una clara definición y comunicación de las políticas de seguridad y acuerdos de confidencialidad, aceptados y firmados por todos los usuarios. Esto minimiza potenciales fugas de información, al contar con un consentimiento firmado del usuario para no realizar ciertas acciones.
Procedimientos seguros de contratación y desvinculación. Tanto al momento de la contratación como en la desvinculación de una persona dentro de una organización, se produce la conexión o desconexión de una nueva pieza con el motor de la organización, por lo que deben tenerse en cuenta los métodos de acceso y registro de los usuarios en sus primeros o últimos momentos de trabajo.
Seguir procesos de eliminación segura de datos. Es fundamental que los datos que se desean eliminar sean efectivamente eliminados y los medios de almacenamiento adecuadamente tratados antes de ser reutilizados.
Construir un entorno de confianza. Contar con personal capacitado y responsable para la gestión y administración de información sensible.
Aceptar y entender la realidad. Si bien el seguir estos consejos no garantiza de forma absoluta la seguridad de la información, estas prácticas ayudan a disminuir los riesgos de pérdida de información valiosa y resaltan la importancia de tomar medidas concretas y definir un plan realista, alejado de la paranoia innecesaria.
“Es importante entender que no es posible controlar todas las variables y mucho menos todas las acciones de las personas que integran una corporación, por lo tanto, siempre habrá un margen de error en relación a la protección de la información. Sin embargo la idea es reducir ese margen al mínimo posible. Y esto se logra por medio de prácticas efectivas y adecuadas en torno a la Seguridad Informática. Por tal motivo en ESET trabajamos constantemente en capacitar a nuestros usuarios y brindar las herramientas tanto técnicas como educativas para evitar cualquier incidente informático”, comenta Federico Pacheco, Education & Research Manager para ESET Latinoamérica.
Hoy por hoy es una utopía que Linux vaya a desbancar al resto de sistemas operativos, especialmente a Windows, pero ¿te has preguntado alguna vez qué sucedería si se llegara a producir la adopción generalizada de Linux?
Partimos de la base de que tan sólo son conjeturas y de que los analistas no confían actualmente en que Linux pueda llegar a ser el sistema operativo más usado, pero en PCWorld han sacado su bola de cristal para predecir cuáles serían los cambios que supondría que ese 1% de usuarios de Linux se convirtiera en el 100%.
En primer lugar, “el monocultivo de Windows desaparecería y sería reemplazado por una diversidad de distribuciones de Linux”, señala Katherine Noyes.
También supondría un duro golpe para la industria del malware, ya que les pondría muy difíciles las cosas a sus creadores porque “en lugar de tener un sólo objetivo grande, fácil y lento de movimientos, tendrían que matar a 100 pájaros de un tiro”
En segundo lugar, un mundo dominado por Linux significaría también un cambio en las soluciones de seguridad para PC, ya que teniendo en cuenta la apertura del código y las ventajas en seguridad de Linux, “lo que ahora es una industria de seguridad colosalmente grande no sería capaz de sostenerse a sí misma en una escala tan masiva”.
También predicen que se reduciría el tiempo de inactividad. “Entre los problemas de malware y otros elementos (…), Windows tiende a estar asociado con un montón de tiempo de inactividad no planificado”, mientras que Linux “es bien conocido por su fiabilidad”.
La cuarta ventaja se refiere directamente al bolsillo, ya que la adopción generalizada de Linux supondría importantes ahorros a nivel mundial, ya que “empresas e individuos en todo el mundo dejarán de tener que pagar tarifas desorbitadas por licencias y otros costes”.
Y por último, un mundo con Linux supondría un mejor software, según explica Katherine Noyes, ya que los usuarios “tendría en su mano la configuración del software que utilizan” y podrían sugerir y aportar mejoras.
Imagen obtenida desde http://www.flickr.com/photos/alui0000/
Como ya se ha hecho costumbre la empresa estadounidense IBM, le preguntó a la comunidad científica sobre los posibles avances tecnológicos que ellos piensan que se pueden ver dentro de 5 años. La empresa informática develó los originales “hallazgos”.
La encuesta, que se realizó a 3.000 investigadores para conocer su impresión sobre las novedades en el sector tecnológico para 2015, arrojó, por ejemplo, que existirán las videoconferencias holográficas a través de los teléfonos celulares.
Otras voces ponen la “cuota de cordura” y prevén que dentro de cinco años más tendrán que existir un nuevo tipo de baterías, aunque la teoría se “complica” ya que se propone que éstas se carguen al contacto con el aire.
También existirían juegos de baterías portátiles que basarían su energía cinética y que aprovecharían el movimiento del hombre para generar energía y carga.
Otras voces “aseguran” que se diseñarán programas de computación que puedan predecir cuándo y dónde se producirán atascos en las carreteras, incorporando en los vehículos y en las autopistas.
¿Se ha acercado alguna vez a un computador y éste está caliente por el uso? Precisamente este podría ser un intento dentro de cinco años más: Encontrar la forma de prescindir de la estufa a gas o eléctricas o la calefacción y utilizar el calor de los ordenadores y así obtener “calor reciclado”.
Habrá que esperar para ver si estos inventos podrían llegar a concretarse. En cinco años podrían inventarse incluso cosas más radicales que las expuestas por los expertos.
El equipo del Laboratorio de la empresa desarrolladora del multipremiado antivirus ESET NOD32 advierte sobre el afianzamiento del malware dinámico como tendencia para el 2011, apoyado en el creciente desarrollo de las botnet.
Las redes botnet serán protagonistas durante el próximo año, afirmando la tendencia observada durante el 2010: mayor cantidad de malware del tipo bot, aumento en la cantidad de redes activas y más cantidad de equipos zombis, según el informe “Tendencias 2011: las botnet y el malware dinámico” de la compañía líder en seguridad informática ESET.
Asimismo, el monto recaudado por los administradores de este tipo de redes también aumentará y se verán innovaciones en las tecnologías de las mismas. Esta tendencia incrementará el trabajo enfocado a dar de baja este tipo de redes delictivas. Asimismo, el monto recaudado por los administradores de este tipo de redes también aumentará y se verán innovaciones en las tecnologías de las mismas. Esta tendencia incrementará el trabajo enfocado a dar de baja este tipo de redes delictivas.
Entre las principales, se pueden mencionar:
Auge de las botnet y el fin del malware estático
Los códigos maliciosos dinámicos son aquellos que primero infectan el sistema y luego, a través de algún acceso remoto al equipo afectado, permiten al atacante realizar diversas tareas mientras el equipo no sea desinfectado.
Las botnet son la confirmación del malware dinámico en conjunto con el negocio delictivo: los equipos zombis pueden ser utilizados en cualquier momento por el administrador de la red para realizar diversas tareas que por lo general están asociadas a diversos delitos informáticos, tales como el robo de información, ataques a través de Internet o envío de spam, entre otros.
Según los datos relevados por el Laboratorio de ESET Latinoamérica, a noviembre de 2010 fueron detectadas unas cinco mil quinientas botnet (habiendo llegado a seis mil en meses como mayo o julio de 2010), contra los pocos más de cuatro mil de finales del año anterior. Según esta tendencia se estima que durante el 2011 la mayoría de los usuarios infectados con cualquier tipo de código malicioso podrían formar parte de una botnet.
El principal motivo del auge de las botnet y de la gran cantidad de usuarios infectados está basado en que el atacante obtiene un importante rédito económico por los servicios delictivos brindados por estas redes. Además, necesitan de muy poco dinero inicial para armar este tipo de red delictiva ya que pueden obtener paneles de administración y malware del tipo bot a muy bajo costo.
Desarrollo de malware multiplataforma
Como alternativa más rentable para los desarrolladores de malware aparece la creación de códigos maliciosos multi-plataforma, archivos que pueden afectar a diversas plataformas con un mismo fin, o bajo un mismo modelo de infección. Un ejemplo de esta tendencia se observó a finales de año, con la aparición de una nueva variante del troyano Koobface, conocida como Boonana e identificada por ESET con la firma Java/Boonana.A. Esto implicó entonces la primer versión multi-plataforma de este troyano que está en actividad desde finales de 2008 y que, dos años después de su creación, expande su propagación más allá de sistemas Windows, infectado también sistemas Linux y Mac OS.
También esta tendencia se observó a principio de año con un experimento realizado para crear botnet en plataformas móviles con iPhone y Android, obteniendo más de ocho mil dispositivos afectados.
BlackHat SEO Social
Hoy en día prácticamente ningún usuario de Internet pasa un día completo sin realizar una búsqueda en la web o utilizar alguna red social. Durante el próximo año este dato tampoco será ignorado por los atacantes, por lo que se estima que incorporen nuevas tendencias basadas en los ataques ya existentes para estos dos servicios.
En materia de buscadores, se espera una optimización en los tiempos de posicionamiento, es decir, una menor demora entre la ocurrencia del evento usado como anzuelo y su ubicación en resultados envenenados por medio de técnicas de BlackHat SEO.
Las redes sociales, por su parte, ganan cada vez más usuarios, por lo que es esperable que continúen siendo usadas como medio de propagación de malware, phishing, spam o scam entre otras amenazas informáticas.
A su vez, es probable que el hecho de que los buscadores comiencen a mostrar no sólo sitios web, sino también resultados en redes sociales origine una nueva forma de BlackHat SEO basada en las redes sociales, donde ya no es necesario para los atacantes la creación de sitios web envenenados sino que pueden hacerlo directamente con perfiles falsos generando contenidos que enlacen a malware.
“El malware dinámico apoyado en el crecimiento de las botnet, el desarrollo de malware multiplataforma y el BlackHat SEO Social serán noticias en el 2011. Sin embargo, también continuarán consolidándose ataques informáticos que ya casi son clásicos y que se sumarán a las tendencias mencionadas: la explotación de vulnerabilidades, el uso de técnicas de Ingeniería Social, la apropiación de datos privados de los usuarios por medio de las redes sociales y el desarrollo de malware desde Latinoamérica”, aseguró Federico Pacheco, Gerente de Educación e Investigación de ESET Latinoamérica.
Actualmente, las organizaciones están saturadas de información puesto que los datos crecen continuamente de manera exponencial. Asimismo, cada día se anuncia o lanza al mercado una nueva tecnología con la promesa de reducir los costos al hacer negocios, ser más convenientes y oportunos.
“Debido al estancamiento y las reducciones de presupuestos de tecnología, es indispensable que las organizaciones obtengan mayor valor por sus inversiones en TI”, dijo Wilson Grava, Vicepresidente de Symantec para América Latina. “Cuando las organizaciones comprenden los desafíos, riesgos y amenazas, pueden planear e implementar iniciativas tecnológicas estratégicas como la virtualización, seguridad móvil, encriptación, las copias de seguridad y recuperación, el archivado y el cómputo en nube para proteger y administrar su información de manera más eficiente”.
Seguridad en Internet – Tendencias para 2011
Continuarán los Ataques a la Infraestructura Crítica: Hacia finales del 2010 Stuxnet – una amenaza creada específicamente para modificar el comportamiento de sistemas de hardware y generar daños en el mundo físico- tuvo un gran impacto en los sectores que utilizan sistemas de control industrial. Este hecho marcó una nueva era en cuanto a ataques informáticos y es muy probable que aquellos cibercriminales que siguieron de cerca esta amenaza hayan aprendido la lección y en 2011 veamos otros ataques direccionados a infraestructuras críticas. Con un inicio lento, se espera que la frecuencia de este tipo de ataques se incremente.
Los Ataques Segmentados y las Vulnerabilidades de Día-Cero Serán más Comunes: Este año, Hydraq, también conocido como Aurora, fue un buen ejemplo de un tipo de amenaza creciente, altamente segmentada, que busca infiltrarse en organizaciones específicas en un tipo particular de sistemas de cómputo, explorando vulnerabilidades de software hasta ese momento desconocidas. Los cibercriminales han usado estas brechas de seguridad durante muchos años pero las amenazas altamente segmentadas han ganado terreno, por lo que se prevé el surgimiento de más vulnerabilidades de día cero para los próximos 12 meses en comparación con los años anteriores.
Más Dispositivos Móviles y Nuevos Modelos de Seguridad de TI: El uso de dispositivos móviles como smartphones está creciendo a un ritmo acelerado. Gartner prevé que, al final de 2010, 1,200 millones de personas estén usando celulares con acceso a Internet e IDC estima que a final del 2010, los dispositivos Android y AppleiIOS tengan 31 por ciento de participación de mercado global. En 2011 se espera un aumento en las amenazas dirigidas a dispositivos móviles ya que el uso de éstos seguirá creciendo. Tomando en cuenta esta tendencia es probable que los dispositivos móviles se vuelvan una de las principales fuentes de pérdida de datos confidenciales en 2011.
Mayor Adopción de Tecnologías de Encriptación: El aumento de uso de dispositivos móviles de la empresa no sólo significa que será necesario enfrentar algunos desafíos para mantener accesibles y seguros esos equipos y los datos confidenciales contenidos en ellos, sino que las empresas también deberán cumplir varias regulaciones asociadas a la protección de datos y privacidad. En 2011 veremos que las organizaciones llevarán a cabo un acercamiento más proactivo para proteger los datos, como la adopción de tecnologías de encriptación para cumplir con los patrones de conformidad y evitar las multas y daños que la violación de datos pueda causar a las marcas.
Surgimiento de una Nueva Frontera en Ataques Motivados por Fines Políticos: En un estudio reciente de Symantec sobre la protección de infraestructura crítica, más del 50% de las empresas entrevistadas afirmó tener sospecha o certeza de ser víctimas de ataques con objetivos políticos específicos. En el pasado, los ataques motivados por cuestiones políticas caían en la categoría de espionaje cibernético o de ataques DoS (Denial of Service o negación de servicio) contra servicios Web. Symantec cree que Stuxnet es posiblemente sólo el primer indicador altamente visible de lo que se llamaría guerra cibernética que viene de tiempo atrás. En 2011 es probable que veamos más señales de acciones de lucha por controlar armas digitales.
Almacenamiento – Tendencias para 2011
El Siguiente Paso de la Virtualización: La virtualización ha sido uno de los más grandes cambios en 2010 y continuará influyendo en TI en el año 2011. Las empresas en todo el mundo están logrando los beneficios de la virtualización al reducir el número de servidores en sus entornos. Aunque la virtualización disminuye los costos de servidores, las organizaciones se están dando cuenta de que simultáneamente se incrementan los costos de administración y sin un plan para proteger estos entornos, no pueden obtener el retorno total de la inversión. La capacidad para realizar copias de seguridad y recuperar aplicaciones y datos de los entornos físicos y virtuales con una única solución permitirá a las organizaciones reducir los costos generales de TI y la complejidad.
Brecha en la Recuperación de Desastres en Entornos Virtuales: El número de solicitudes y la cantidad de datos en entornos virtuales aumentarán notablemente en 2011. La Encuesta 2010 de Symantec sobre Recuperación Ante Desastres reveló que, en caso de un desastre, 60 por ciento de los datos de una organización que se almacena en entornos virtuales no puede recuperarse porque las organizaciones no han implementado tecnologías de protección de datos. Considerando que el nivel de protección de las máquinas virtuales debe ser similar al que los clientes tienen en los entornos físicos, las organizaciones deben implementar tecnologías para garantizar que sus datos críticos en entornos virtuales estén a salvo de toda clase de riesgos.
El Año de Administrar Mejor la Información: Los administradores de almacenamiento deben desechar la mentalidad de ‘acumulador compulsivo’ y categorizar la información más importante en 2011. El casi infinito nivel de retención de datos está haciendo que los gastos de almacenamiento se disparen, que los tiempos de recuperación sean extensos y que existan pesadillas en e-Discovery en las organizaciones de todos los tamaños. En 2011, las organizaciones volverán a evaluar sus necesidades de retención y automatizarán su estrategia de administración de la información para mantener copias de seguridad de 30 a 60 días, archivar almacenamiento a largo plazo y eliminar todo lo demás.
Aumenta el Almacenamiento en Nube: Las tecnologías en la nube cambiarán considerablemente la forma en que se prestan los servicios en 2011. Más organizaciones aprovecharán las nubes públicas y privadas a medida que están más disponibles. Cuando nos aproximamos al 2011, las empresas necesitan administrar los recursos de almacenamiento de información por lo que surgirán herramientas para administrar este nuevo entorno complejo de almacenamiento y para que los administradores de TI puedan comprender mejor y capturar información sobre los datos no estructurados que residen en ella. Esto les permitirá utilizar plenamente los beneficios de la nube.
Derecho a elegir: Equipos, Software y Nube: Mientras el software continúa impulsando la innovación, en 2011 habrá nuevos modelos como respuesta a las necesidades de los clientes para facilitar las operaciones de TI. El cómputo en la nube, los dispositivos y servicios hospedados son ejemplos de modelos cada vez más atractivos que proporcionarán a las organizaciones flexibilidad y facilidad para su implementación.
Consolidación y Centros de Datos de Siguiente Generación: La consolidación es la prioridad del sector de TI y las organizaciones deben redefinir la infraestructura de sus centros de datos en 2011 para administrar las presiones, reducir costos y proteger los datos. Si la consolidación implica un movimiento físico, virtualización, desmantelamiento o cualquier combinación de estos aspectos, las organizaciones necesitan administrar los riesgos y la complejidad de la consolidación de los centros de datos. Además, las organizaciones deben garantizar la protección y disponibilidad de la información y las aplicaciones para evitar interrupciones no planeadas en la productividad y la pérdida de datos. No es un secreto que en 2011, la consolidación será un tema prioritario.
Proteger y Administrar los Datos en Redes Sociales: La forma en que las organizaciones colaboran se modificará en 2011. Hoy hemos visto que las empresas ya han comenzado a aprovechar más las redes sociales para mejorar la comunicación y la productividad en los negocios. A medida que esta tendencia crece, las áreas de TI deberán prepararse y comprender cómo proteger y administrar estas aplicaciones para recuperar y encontrar la información empresarial que se comunica o transmite a través de estos medios. El archivado de medios o redes sociales se volverá más importante a medida que las empresas aprovechen su poder para fortalecer neg
Imagen obtenida desde http://www.flickr.com/photos/mandymaarten/
En los últimos cinco años muchas empresas han estado impulsando su infraestructura de marketing interno en los social media y su presencia en las redes como Facebook o Twitter, por lo que en 2011 podrían llevar estas estrategias a un nuevo nivel.
Pero los social media también son una preocupación importante en los presupuestos de las empresas. Según una encuesta global realizada por Maxymiser, los social media se situaban en el tercer puesto de prioridades para los presupuestos de marketing online de 2011, por debajo de las búsquedas y de la página web de la compañía. Además, diversos estudios han mostrado que el gasto en las plataformas sociales seguirá aumentando en los próximos años.
Según afirmó Debra Aho Williamson, analista de eMarketer, “a medida que aumenta el gasto, otros canales de marketing perderán parte de su presupuesto. Los presupuestos de marketing total, en general, no están aumentando, por lo que el gasto mayor en los social media tiene que venir de otros tipos de marketing. Algunos indicadores apuntan a que los primeros afectados serán los medios offline y las promociones”.
Kinect se convierte ahora en un radar 3D para cuadricópteros
Cuando creías haberlo visto todo en el mundo de la robótica, llega otro trabajo inspirado en Kinect que te deja boquiabierto. En esta ocasión las bases del proyecto no pueden ser mejores: todo un cuadricóptero autónomo con sistema de radar basado en Kinect. Tal y como podrás ver en el vídeo que tienes a continuación, este curioso objeto volador detecta cualquier tipo de obstáculo presente en su trayectoria gracias al mapeado 3D de su entorno, permitiendo que el vehículo se detenga cuando aparezca un impedimento frente a él. Echa un vistazo a la demostración que tienes tras el salto.
Los nuevos hacks de Kinect nos asombran cada día. El último es un camuflaje óptico virtual creado por el japonés Takayuki Fukatsu que, sencillamente, te hace desaparecer. La herramienta abierta de escritura de código OpenFrameworks le permitió utilizar un filtro para, literalmente, «borrarse» del vídeo captado por el periférico de Microsoft. Luego, empleó una imagen del escenario para que el sistema pueda seguir mostrando lo que su cuerpo oculta como si él no estuviera. Aunque no tiene una gran utilidad, no podemos negar que se ve espléndido.
En este video de más de seis minutos de duración podemos ver lo sorprendentemente bien que funciona la creación de Fukatsu, porque no sufre los problemas visuales (como sombras) que muchas otras aplicaciones han sufrido. Además, no tiene ningún problema en mostrar aquellas secciones del escenario que están siendo tapadas por la persona, a pesar de que hay un solo Kinect, con un único punto de vista.
Así lo hizo
Aunque Fukatsu no explica cómo funciona, teniendo en cuenta que la cámara está fija todo el tiempo, suponemos que utiliza un filtro para quitar su cuerpo del vídeo y utiliza una imagen estática del escenario para poder ver aquellas partes que están siendo tapadas por su cuerpo.
Sería positivo que alguien pueda hacer uso de esta experiencia para tener un poco más claro el funcionamiento y las capacidades de Kinect. Por el momento, no podemos esperar hasta ver la próxima aplicación que crearán con este gran periférico, que por el momento ha hecho más por los desarrolladores independientes que por Microsoft mismo.
La esperada Ley de Telecomunicaciones, que permite entro otras cosas que cada usuario sea dueño de su número telefónico, fue promulgada esta mañana por el Presidente de la República, Sebastián Piñera, y el ministro de Transporte y Telecomunicaciones, Felipe Morandé.
Las autoridades informaron que la portabilidad numérica iniciará un periodo de marcha blanca en junio o julio de 2011, para estar disposición de los usuarios a partir de agosto del mismo año.
La puesta en marcha de este sistema permitirá que los clientes cambien de proveedor de servicio telefónico, sin estar obligados a modificar el número.
“El número es del cliente y no de la compañía. Esperamos que las personas nazcan y mueran con el mismo número“, dijo Piñera
Además, la Ley incorpora aspectos relacionados con la reconstrucción y emergencia en telecomunicaciones, y la eliminación gradual de la larga distancia nacional.
Sobre la eliminación gradual de la larga distancia, el Presidente indicó que “el señor Faúndez, los pololos y las familias van a estar contentos, los vamos a unir“. Además, destacó que en total las personas ahorrarán más de $ 20 mil millones.
En una primera etapa, la reducción considera bajar de 24 a 13 las zonas primarias de telefonía local, fusionando distintas comunas como una zona local, y para el año 2013, se espera la eliminación definitiva de la larga distancia nacional.
Sobre la ley de reconstrucción, el Mandatario destacó que corregirá las debilidades de las redes de telecomunicaciones ante catástrofes como el terremoto de febrero pasado.
Al respecto, señaló que “nos servirá para tener los resguardos y no sufrir las consecuencias de cualquier tipo de catástrofes“.
El Mandatario también destacó el apoyo del Congreso a estos proyectos, que en apenas cinco meses logró aprobar la iniciativa.
Finalmente el Piñera encargó a Felipe Morandé la tarea de construir la carretera digital, aprobar la ley de Televisión digital y acelerar la ley de compatibilidad de las antenas telefónicas con la salud y calidad de vida de las personas.