vcollado

Acerca de Vanessa Collado

Este autor no presenta ningún detalle.
Hasta ahora Vanessa Collado ha creado 524 entradas de blog.

Redes WiFi

2018-08-16T11:47:03+02:00agosto 16, 2018|Internet|

No siempre existieron tantos problemas con las redes WiFi, cuando comenzaron a utilizarse (2001) el escenario generalmente era el siguiente:

  • Los puntos de acceso inalámbrico (Acces Point) únicamente funcionaban en la frecuencia de 2.4 GHz con alta potencia, mayor alcance y poca interferencia en el entorno.
  • Los dispositivos cliente eran laptops con antenas que permitían una buena transmisión de datos.
  • Había pocos dispositivos WiFi y sin tráfico de grandes volúmenes de información.

Pero en la actualidad, encontramos lo siguiente:

  • El tráfico de información es mucho mayor.
  • Se ha incrementado el número de equipos WiFi, ya que cada vez son más los dispositivos conectados por usuario.
  • Al ser mayor el número de tecnologías que hacen uso de la frecuencias 2.4 GHz la interferencia aumentó y se optó por 5 GHz, una frecuencia más limpia, con mayor capacidad pero con la mitad de cobertura.
  • Los dispositivos móviles son los más utilizados. Este tipo de equipos desarrollan menos potencia de transmisión, poseen menor ganancia de antena y además, mientras están encendidos realizan de manera continua comunicaciones con los AP (incluso cuando no son utilizados por el usuario).
  • Si un dispositivo establece una mala conexión, hará uso del AP por más tiempo, afectando con ello al resto de los usuarios.

En muchas ocasiones se ha intentado determinar la cobertura inalámbrica en un cierto número de metros, sin embargo, ésta dependerá de múltiples factores, como la potencia del Access Point, el tipo de antena en el dispositivo del usuario, disponibilidad de canal, los obstáculos entre ambos, y algunos otros. De la misma manera, la calidad de la señal WiFi no depende únicamente del AP, sino también del dispositivo que intenta establecer una conexión con éste.

Debido a que la potencia de los Access Point es un factor importante en las redes WiFi, aparecieron en el mercado algunos AP con alta potencia. Sin embargo, con ellos se distorsiona la onda WiFi de alta capacidad, generando errores de comunicación y afectando el rendimiento real. Tampoco cumplen con los estándares de potencias recomendados. Por otro lado, al incrementar la potencia del Access Point se genera ruido que afecta a otros AP de la red.

También comenzaron a utilizarse los Access Point con grandes antenas, y aunque será mayor su ganancia y alcance, se recogerá más ruido y degradará el desempeño real.

Por último, debemos considerar que el óptimo funcionamiento de la red inalámbrica no depende únicamente de los dispositivos WiFi, si el origen de la falla se encuentra en la línea de switches, en el DHCP, en el cableado, etcétera; definitivamente no bastará con tener el equipo WiFi más robusto del mercado para obtener los resultados deseados.

También puede ser de su interés:

-Interferencia de la red inalámbrica.

-Fallas en red inalámbrica.

Empleo y el perfil de Tecnologías de Ia Información

2018-08-14T12:43:38+02:00agosto 14, 2018|Internet|

Diversos sectores han descubierto la funcionalidad de tener profesionistas especializados en Tecnologías de la Información (TI), así lo informa una publicación reciente realizada por Deloitte México.

En la actualidad, tener un perfil TI representa una ventaja al momento de buscar un empleo. En nuestro país son cada vez más las vacantes ofrecidas a personas especializadas en el sector de TI o en carreras relacionadas.

El factor que ha servido como detonante para lograr este ascenso de ofertas laborales es que tanto el sector empresarial, como el educativo e incluso el gubernamental han descubierto ya la funcionalidad y los beneficios del uso de las Tecnologías de la Información.

Si bien, de manera general, todas las ofertas de trabajo de este sector registraron un incremento, existen ciertos perfiles que durante 2017 fueron los más solicitados por las empresas. De acuerdo con EmpleosTI, estas posiciones fueron ocupadas por los programadores en tecnologías Java, programadores en .NET y especialistas en SAP.

Respecto a las solicitudes de talentos especializados, los más requeridos fueron los especialistas en Seguridad Informática y los relacionados con áreas de Big Data.

Pero la oferta de trabajo no solo varía en función de las especializaciones requeridas por las compañías, sino también de otros factores, como la ubicación de las empresas. En este sentido, Ciudad de México, Jalisco y Nuevo León son las entidades con mayor concentración de ofertas de trabajo para este sector.

No obstante, los estados en donde estas vacantes registraron un mayor incremento, de acuerdo con el análisis elaborado por la plataforma EmpleosTI, fueron Querétaro, Estado de México y Nuevo León. Es precisamente en estas regiones, según muestran los datos obtenidos por el Instituto Nacional de Estadística y Geografía (INEGI), donde existe un mayor acceso a las Tecnologías de la Información.

Para los profesionistas en México, existen diversas formas de encontrar una nueva oportunidad laboral, sin embargo, para los relacionados con las Tecnologías de la Información la opción más utilizada son los portales de empleo. En segundo lugar LinkedIn, red social dedicada a las actividades profesionales y empresariales, así como las recomendaciones hechas por conocidos y, en último lugar, los buscadores en Internet.

Finalmente, entre los factores que los especialistas en TI toman en cuenta para considerar una oferta de empleo, se encontró que los principales son el desarrollo dentro de la empresa, salario y balance entre la vida y trabajo.

Fuente https://www2.deloitte.com/mx/es/pages/dnoticias/articles/perfil-tecnologico-para-empleos.html

 

Seguridad en la Nube

2018-08-08T13:35:54+02:00agosto 8, 2018|Internet, Seguridad, Servicios Cloud|

La incorporación de la tecnología en la forma de hacer negocios y operar las empresas dejó de ser solo una tendencia hace mucho para ser una realidad, y los servicios de la Nube han jugado un rol significativo no solo en facilitarla, sino en acelerarla. A la par, los ataques cibernéticos se han convertido en noticias destacadas, en donde millones de dólares están en juego, poniendo en riesgo la supervivencia de las empresas y su capacidad de seguir haciendo negocios.

Esto genera preguntas valiosas sobre el estado de seguridad en la Nube. Por ello, se trata de entender cómo ésta ha progresado en los últimos años y en cómo alinear los requisitos de seguridad de las empresas, así como la regulación y controles que deben cumplir en el proceso de adopción de servicios en una o más Nubes, de las que invierten muchos recursos en desarrollar nuevos servicios y adoptar estándares de seguridad.

Este esfuerzo ha sido reconocido por empresas en todo el mundo, considerando que el total de organizaciones que desconfían ha disminuido aproximadamente del 50 al 29 %, de acuerdo al informe del 2017 de la empresa McAfee “Construir confianza en un cielo nublado”. Al evaluar la adopción de servicios en la Nube, la seguridad siempre será una preocupación, por lo cual, se pueden considerar las siguientes medidas para reducir los riesgos:

Conocer los requisitos internos de seguridad. Existen distintos tipos de datos y por lo tanto, no todos deben tener el mismo tratamiento. Por ejemplo, la información de identificación personal (PII, por sus siglas en inglés) debe cifrarse con una mayor seguridad, dentro y fuera de la Nube. Asimismo, existe una posibilidad de que puedan surgir problemas de rendimiento con el uso excesivo de los servicios de cifrado. En resumen, las empresas que adoptan los servicios de Nube, sean públicas, híbridas o privadas, deben adoptar aquellos estándares y tecnologías que empaten con cada servicio en particular.

Clasificar los datos que se alojarán en la Nube. Es vital tener un enfoque detallado de la clasificación de datos que existirá en la Nube. Igualmente, considerar en el contexto aquellos factores relacionados al cumplimiento de regulaciones en la gestión de los mismos, como es el caso de la ley de protección de datos personales y sus variantes en diferentes partes del mundo Para esto, es primordial construir un conjunto de políticas en torno a los datos y ser capaz de automatizar la ejecución de dichas políticas dentro de los sistemas de seguridad en la Nube, con base en el ámbito regulatorio al que esté sujeta la empresa, tanto por su actividad de negocios, como por los mercados en los que opera.

Mapeo de una ruta a la seguridad en la Nube. Este paso resulta sencillo si se ha realizado correctamente el paso anterior. Significa elegir los servicios de cifrado correctos, que efectuarán los requisitos de cumplimiento y política. Por otro lado, es importante contar con un sistema de gestión de identidades y accesos, que se integre dentro de los sistemas de directorio existentes.

Por último, es sustancial tener todo esto bajo un sistema sólido de gestión de seguridad, que proporcione un monitoreo proactivo y defensa propia. Asimismo, también es conveniente asociarse con un proveedor de servicios de seguridad con experiencia y conocimiento necesario para la implementación, para que los planes de seguridad cibernética estén sincronizados con los objetivos comerciales de la empresa.

Le invitamos a ponerse en contacto con nosotros para proveerle más información respecto al apoyo que Adaptix Networks puede brindar específicamente a su empresa en servicios de Cómputo en la Nube, así como los casos de éxito con nuestros clientes.

Fuente http://computerworldmexico.com.mx/de-que-manera-ha-progresado-la-seguridad-en-la-nube-en-los-ultimos-anos/

 

Líderes digitalmente preparados

2018-08-06T16:07:20+02:00agosto 6, 2018|Internet|

En la actualidad, las organizaciones no sólo necesitan líderes con experiencia en sus industrias, sino también líderes digitalmente preparados.

De acuerdo a la sexta edición anual del estudio realizado por Deloitte y el MIT, “Lograr la madurez digital”, el 71% de las organizaciones que madura digitalmente lo ha logrado mediante la experimentación y aceptación del riesgo. Para prosperar en esta era, las organizaciones necesitan construir una estructura con el capital humano capaz de conducir la transición de manera ágil y exitosa.

La pregunta obligada cuando se habla de este tema es si la empresa tiene el personal con el talento, las habilidades y los conocimientos suficientes para apoyar la transformación de la organización. Desarrollar estas capacidades en un ambiente de disrupción es el verdadero desafío.

De acuerdo a una reciente publicación en el sitio Forbes México, existen cinco caracterpisticas clave que permiten reconocer a un líder digital dentro de la empresa:

  • Móvil: Está hiperconectado y siempre en movimiento. Conoce la tecnología, capitaliza las oportunidades de nuevas tecnologías para llevar el negocio, así como al equipo. Proporciona retroalimentación interactiva en tiempo real y usa plataformas sociales y móviles para participar con el equipo. Interactúa en donde esté en tiempo real, da retroalimentación y entrenamiento a su equipo, y entiende que la fuerza de trabajo digital está acostumbrada a socializar a través de nuevas tecnologías y redes sociales. Fomenta una cultura de conocimiento y contenido basada en integridad, apertura y transparencia.
  • Orientado a contenido: Entiende la importancia de crear un ambiente de intercambio de conocimiento y continuamente comparte contenido relevante e historias con el equipo. Se convierte en un claro ejemplo de valores tales como apertura, integridad y honestidad, herramientas fundamentales para preservar la reputación corporativa.
  • Desarrollador de gente: Crea lealtad individual y compromiso por considerar y posicionar a los empleados de acuerdo a sus fortalezas e intereses individuales. Permite y habilita la autogestión del equipo. Es flexible, adaptable y colaborativo (intergeneracional, multifuncional y organización cruzada).
  • Identificador de talento: Recluta y desarrolla un grupo de talento diverso, funcional y con una profunda experiencia que cuente con las habilidades necesarias para una rápida adaptación y flexibilidad. Es apto para identificar características no convencionales o talento no tradicional para posiciones tradicionales dentro de las empresas.
  • Estratégico y capitalizador de tecnología: Tiene la capacidad de prever cambios sin precedentes y adaptarse al entorno sin perder la visión de negocio a largo plazo. Entiende el ecosistema del que forma parte, y puede identificar nuevas oportunidades en las que antes era inimaginable competir, pero que ahora son habilitadas por las tecnologías digitales.

Conforme el impacto digital repercute en toda la organización, se requiere de un liderazgo efectivo en todos los niveles para impulsar la estrategia a futuro.

Fuente https://www.forbes.com.mx/caracteristicas-de-un-lider-en-el-periodo-digital/

 

Beneficios de la Nube

2018-07-31T17:56:43+02:00julio 31, 2018|Internet, Servicios Cloud|

Existen múltiples beneficios que puede obtener una organización en una eventual migración de su información y procesos de negocio hacia la Nube. Aunque en gran medida, dependerá también del contexto organizacional en el que se implementan los servicios en la Nube, la elección de los servicios y sus modelos.

Escalabilidad

El empleo del cómputo en la Nube permite a las organizaciones aprovechar la infraestructura compartida y beneficiarse con las economías de escala. Los usuarios pueden proveerse de recursos computacionales bajo demanda, eliminando el requisito de proyección de usos predeterminados, escalando los servicios que requieren cuando están en su máximo y reduciéndolos durante periodos con menor demanda.

La escalabilidad es la capacidad de un sistema informático para crecer con relativa facilidad en respuesta a una creciente demanda. Este cambio en las TIC como modelo de consumo puede proporcionar beneficios a las organizaciones por medio del intercambio de recursos agregados, también puede eliminar grandes inversiones en infraestructura y aplicaciones dentro de la empresa.

Las soluciones de cómputo en la Nube son ideales en situaciones que experimentan picos en la demanda de recursos informáticos, esos cambios en los requerimientos de recursos pueden variar desde poca o ninguna a la necesidad de manejar grandes cantidades de datos o de procesamientos.

Los beneficios de la escalabilidad se pueden garantizar siempre que el uso del cómputo en la Nube permita que la relación costo-beneficio sea la adecuada. Un ejemplo de ello es el espacio en disco duro, no vale la pena intentar enviar información redundante o sin relevancia a la Nube, esto únicamente incrementaría el costo por almacenamiento.

Eficiencia y facilidad de uso

La naturaleza del cómputo en la Nube permite el acceso fácil y casi inmediato a los servicios y aplicaciones, en comparación con el modelo de organización tradicional de compra, instalación y despliegue de equipo y programas.

Dado que los servicios y aplicaciones se encuentran en la Nube, los usuarios pueden tener acceso a ellos desde prácticamente cualquier lugar en donde haya acceso a Internet.

Además, permite a las organizaciones realizar pruebas de servicios y aplicaciones, sin grandes gastos y cuando así lo decidan. El entorno de la Nube puede permitir a algunos usuarios usar soluciones tecnológicas nuevas y económicas que de otra forma no serían viables, y la eficiencia proporcionada por la Nube puede permitir esta reasignación de los recursos de TIC a otras tareas.

Costos

Debido a que los recursos de infraestructura se comparten entre un gran número de aplicaciones y usuarios, el cómputo en la Nube puede disminuir o eliminar en gran medida la compra de infraestructura organizativa y los costos de mantenimiento; asimismo puede implicar una reducción del gasto en TIC ya que las organizaciones no están obligadas a hacer grandes gastos porque pueden emplear un modelo de compra bajo demanda, es decir, adquirir sólo los recursos informáticos que necesitan para desarrollar su negocio en cualquier momento.

Las organizaciones pueden tratar las aplicaciones y servicios de cómputo en la Nube como gasto operativo y no como gasto de capital. El uso organizacional de los recursos de cómputo en la Nube reduce los costos operativos mediante la reducción o reasignación del personal de TIC dentro de la empresa, utilizando así más eficazmente los recursos humanos. Ventajas adicionales en los costos provienen de la reducción del consumo de energía, de la pérdida de tiempo debido a retrasos en las operaciones computacionales y del desperdicio de recursos como un servidor sin usar.

Continuidad de negocio y recuperación ante desastres

El cómputo en la Nube puede proporcionar a las organizaciones estrategias de continuidad de negocio y de recuperación ante desastres de manera eficaz y a bajo costo. Las organizaciones pueden utilizar la infraestructura de la Nube para facilitar la redundancia de la información almacenada fuera del sitio, lo que reduce enormemente los costos del material asociado con el respaldo tradicional y los modelos de recuperación ante desastres.

Ahora bien, no prever las interrupciones en el servicio de Internet podría afectar la funcionalidad de la Nube. A este respecto, en la actualidad existen diversas opciones para garantizar una alta disponibilidad del servicio de Internet y evitar cualquier posible afectación.

La continuidad del negocio y la planificación de recuperación en casos de desastre deben ser planeadas, probadas y documentadas.

Le invitamos a ponerse en contacto con nosotros para proveerle más información respecto al apoyo que Adaptix Networks puede brindar específicamente a su empresa en servicios de Cómputo en la Nube, así como los casos de éxito con nuestros clientes.

 

Evitar la explotación de vulnerabilidades

2018-07-30T11:57:53+02:00julio 30, 2018|Internet, Seguridad|

Muchos de los intentos de intrusión resultan de la explotación de vulnerabilidades ya identificadas y para las que se disponía de correctivos: actualizaciones y parches que únicamente requieren su aplicación.

Sin embargo, un gran número de organizaciones todavía tienen problemas para monitorear y administrar el proceso de aplicación de estas actualizaciones.

Una vez que se anuncia alguna vulnerabilidad, los cibercriminales comenzarán la carrera por explotarla.

Incluso, hay quienes pueden pensar que los intentos de intrusión y los peligros que implican son poco frecuentes, pero definitivamente no es así. Un ejemplo de ello, son dos de los casos de seguridad informática más conocidos en fechas recientes, la fuga de datos de Equifax y el ransomware Wannacry.

Estos dos casos, que a primera vista parecen completamente ajenos entre sí, tienen un gran punto en común: ambos implicaron intentos maliciosos en los que se explotan vulnerabilidades no corregidas.

También resaltan el hecho de que muchas compañías todavía usan Sistemas Operativos como Windows 7 o Windows 8 (a pesar de las altas tasas de penetración del 87% y del 38%, respectivamente), que por lo tanto son objetivos de elección. Las organizaciones que dependen de estos Sistemas Operativos deben estar atentos para mantenerse al día con los parches de seguridad y aplicarlos de manera oportuna.

¿Por qué no se implementan estos parches a pesar del peligro?

En primer lugar, muchas personas, tanto usuarios ‘privados’ como usuarios en el ámbito profesional, no son conscientes del peligro y, por lo tanto, ignoran las múltiples advertencias de actualización que reciben.

Otros, más desconfiados, no saben si el mensaje de notificación de actualización es real. Y por miedo, puede elegir ignorar una advertencia de parche legítima.

El uso masivo de software sin licenciatambién afecta la aplicación de parches. Decenas de millones de personas usan software descargado ilegalmente, y muchos temen que el último parche lo eliminará o deshabilitará.

¿Cómo y cuándo aplicar los parches?

En cuanto al momento de la aplicación del parche, es lógico que todos los parches se apliquen tan pronto como sea posible.

Las organizaciones deben priorizar su estrategia para abordar soluciones críticas primero. Una posible estrategia es enfocarse primero en las vulnerabilidades llamadas “N-Day” (ya identificadas) que han causado violaciones a otras compañías.

Mediante la adopción de una estrategia de gestión de parches simplificada – incluyendo un conocimiento de los horarios de distribución de parches y responsabilidades definidas para los involucrados en la evaluación de vulnerabilidades y parches a aplicar – las organizaciones pueden posicionarse para actuar con rapidez.

De este modo, pueden reducir significativamente el tiempo entre la detección de información sobre nuevas vulnerabilidades de seguridad, vulnerabilidades y evaluación de parches o soluciones temporales, en su caso.

Más allá de la aplicación de los parches, puede ser interesante para su organización realizar una auditoría de sus sistemas de información para identificar controles y acciones adicionales. Si no se tiene una imagen completa de la situación de la seguridad de TI, nunca se tendrá una visión global de fortalezas y debilidades, lo que dificultará laestrategia de gestión de vulnerabilidades.

 

Fuente https://globbsecurity.com/por-que-las-vulnerabilidades-no-parcheadas-son-una-amenaza-real-para-la-seguridad-43480/

Qué es un ingeniero de datos

2018-07-27T11:45:18+02:00julio 27, 2018|Internet|

El Center for the Future of Work asegura que para seguir el ritmo de la tecnología, los trabajos existentes en la actualidad fueron cambiando a lo largo de décadas. La revolución tecnológica trajo consigo necesidades que las empresas e industrias solventaron con nuevos puestos de trabajo. Internet ha sido uno de los principales generadores de diversas profesiones.

Se demandan así profesionales con plena formación digital, adaptada a los continuos cambios tecnológicos pero con cualidades exclusivamente humanas. La especialización en la resolución de problemas, por ejemplo, se convierte ahora en una habilidad muy valorada en las empresas.

Uno de los especialistas que surgieron conforme la cantidad de información en las organizaciones se incrementaba, volviéndose al mismo tiempo un recurso indispensable, es el ingeniero de datos, miembro vital de cualquier equipo de análisis de datos empresariales, responsable de gestionar, optimizar, supervisar y controlar la recuperación de datos, el almacenamiento y la distribución en toda la organización.

Los ingenieros de datos son responsables de encontrar tendencias en los conjuntos de datos y desarrollar algoritmos para ayudar a que los datos sin procesar sean más útiles para la empresa. Este rol de TI requiere un conjunto significativo de habilidades técnicas, que incluyen un profundo conocimiento del diseño de bases de datos SQL y múltiples lenguajes de programación. Pero los ingenieros de datos también necesitan habilidades de comunicación para trabajar en todos los departamentos y comprender lo que los líderes empresariales desean obtener de los grandes conjuntos de datos de la compañía.

Los ingenieros de datos a menudo son responsables de construir algoritmos para ayudar a facilitar el acceso a los datos brutos, pero para ello necesitan comprender los objetivos de la empresa o del cliente. Es importante tener objetivos comerciales en línea cuando se trabaja con datos, especialmente para empresas que manejan bases de datos y conjuntos de datos grandes y complejos.

Los ingenieros de datos también deben comprender cómo optimizar la recuperación de datos y cómo desarrollar cuadros de mando, informes y otras visualizaciones para los interesados. Dependiendo de la organización, los ingenieros de datos también pueden ser responsables de comunicar las tendencias de los datos. Las organizaciones más grandes a menudo tienen múltiples analistas de datos o científicos para ayudar a comprender los datos, mientras que las empresas más pequeñas pueden confiar en un ingeniero de datos para trabajar en ambos roles.

Fuente http://www.ciospain.es/big-data/que-es-un-ingeniero-de-datos

El país más digital

2018-07-24T16:33:39+02:00julio 24, 2018|Internet|

En 1991, sus infraestructuras estaban obsoletas y en malas condiciones, el sistema bancario en total decadencia y muy atrasado comparado con el mundo occidental. Cuando Estonia se independizó de la URSS no tenía Constitución, ni instituciones democráticas, ni un sistema legal.

El país se enfrentaba a innumerables retos y además, sin un gran presupuesto para la reconstrucción: la crisis económica golpeó fuertemente al país, con un escenario de inflación disparada y PIB en declive.

¿Cómo se convirtió Estonia en el país más digital?

“En realidad, nosotros no quisimos crear un Estado digital. Era una cuestión de supervivencia. Enseguida nos dimos cuenta de que la Administración Pública y la burocracia gubernamental eran muy caras”, explica Linnar Viik, ingeniero y economista de 53 años, y uno de los artífices de la apuesta de Estonia por la tecnología.

Trabajando a espaldas de las prohibiciones soviéticas, un año antes de la independencia, la disidencia ya había empezado a construir un registro de la población. El sistema era rudimentario y, al principio, no era extraño encontrarse con números duplicados, pero ese fue el germen del código que posteriormente identificaría a los ciudadanos de la República de Estonia.

Los primeros pasaportes de la nueva nación se emitieron en 1992, y cuando, una década después, llegó la hora de la renovación, el Gobierno aprovechó para dar un paso más y entregó la tarjeta de identidad con un chip electrónico para acceder a sus servicios en la Red.

Hoy el 99% de los trámites oficiales —un total de 1,789— pueden realizarse en cualquier momento: el portal gubernamental está abierto las 24 horas, los siete días de la semana. Solo las operaciones inmobiliarias, casarse o divorciarse exigen su presencia física.

Los estonios solo necesitan una conexión a Internet para votar, renovar su licencia de conducir, consultar las recetas médicas, presentar reclamaciones por importes menores a 2,000 euros, impugnar una multa de tráfico, cambiar la dirección de su domicilio, registrar una empresa, firmar documentos, ver las calificaciones de sus hijos y comunicarse con los profesores, acceder a su historial médico, etc. Las ventajas de disfrutar de e-Estonia, un ecosistema eficiente, transparente y seguro que se ha convertido en un ejemplo mundial.

La población de Estonia, un millón trescientos mil habitantes, disfruta de una conexión gratuita a Internet al tratarse de un derecho garantizado por el Estado desde el año 2000.

El 70% del PIB se nutre del sector servicios, y aquellos relacionados con las Tecnologías de la Información y la Comunicación son los que más aportaron al crecimiento de la riqueza nacional en 2016. Además, esta digitalización les supone un ahorro del 2% del PIB anual en salarios y gastos.

El mensaje durante su reciente presidencia del Consejo de la Unión Europea: si ellos han construido una sociedad digital, cualquiera puede hacerlo. La innovación no puede ser patrimonio exclusivo del sector privado, los Gobiernos no deben quedarse atrás.

En 2003 nació en Estonia la compañía que revolucionó las llamadas gratuitas por Internet, Skype, y que en 2011 Microsoft compró por 8,500 millones de dólares. Los fundadores son el sueco Niklas Zennström y el danés Janus Friis, pero el soft­ware fue desarrollado por ingenieros estonios. La compañía todavía mantiene en Tallin una de sus principales oficinas y forma parte del orgullo nacional. “Generó un gran cambio de mentalidad. Después de Skype, muchos se animaron a estudiar carreras técnicas y lanzarse a emprender”, relata Ragnar Sass,  CEO de Pipedrive y fundador de Lift99, un espacio de coworking.

En Adaptix Networks estamos totalmente de acuerdo en que el uso de Tecnologías de la Información y Comunicaciones favorecen el desarrollo tanto de empresas como gobiernos y por lo tanto, de sus países.

Le invitamos a conocer algunas de las herramientas tecnológicas, como la Virtualización, el Cómputo en la Nube o la Telefonía IP, que pueden desarrollar en su empresa una mayor productividad y competitividad, incluso, disminuir costos. Podemos proveerle más información al respecto, así como los casos de éxito con nuestros clientes, al ponerse en contacto con nosotros.

Fuente http://www.tynmagazine.com/estonia-el-pais-100-digital/

Costos ocultos del robo de datos

2018-07-18T13:33:13+02:00julio 18, 2018|Internet, Seguridad|

IBM ha publicado los resultados de un estudio global que examina el impacto financiero de una violación de datos en los resultados de una empresa. El estudio 2018 Cost of a Data Breach Study descubrió que los costos ocultos en el robo de datos, como la pérdida de negocios, el impacto negativo en la reputación y el tiempo empleado en la recuperación, son altamente difíciles de administrar.

Basado en entrevistas de profundidad a cerca de 500 compañías que experimentaron una violación de datos, el estudio analiza cientos de factores de costos que rodean una violación de datos, desde investigaciones técnicas y recuperación hasta notificaciones, actividades legales y regulatorias, y el costo de pérdida de negocios y reputación.

Este año, por primera vez, el estudio también calculó los costos asociados con “mega infracciones” que van de 1 millón a 50 millones de registros perdidos, proyectando que estas brechas les cuestan a las compañías entre $40 millones y $350 millones de dólares, respectivamente.

Durante los últimos 13 años, el Instituto Ponemon ha examinado el costo asociado con las infracciones de datos de menos de 100,000 registros y ha constatado que los costos han aumentado a lo largo del tiempo. El costo promedio de una violación de datos fue de $3.86 millones en el estudio de 2018, en comparación con $3.50 millones en 2014, lo que representa un aumento neto de casi 10% en los últimos 5 años.

El estudio también examina los factores que aumentan o disminuyen el costo de la infracción, descubriendo que los costos se ven muy afectados por la cantidad de tiempo dedicado a contener una violación de datos, así como las inversiones en tecnologías que aceleran el tiempo de respuesta:

  • El tiempo promedio para identificar una violación de datos en el estudio fue de 197 días, y el tiempo promedio para contener una violación de datos una vez identificado fue de 69 días.
  • Las empresas que contuvieron un incumplimiento en menos de 30 días ahorraron más de $1 millón de dólares en comparación con las que tardaron más de 30 días ($3,09 millones frente a un total promedio de $4,25 millones de dólares).

El estudio examinó varios factores que aumentan o disminuyen este costo:

  • Tener un equipo de respuesta a incidentes fue el principal factor de ahorro de costos, reduciendo el costo en $14 por registro comprometido.
  • El uso de una plataforma de inteligencia artificial para la ciberseguridad redujo el costo en $8 por pérdida o robo de registro.
  • Las compañías que indicaron una “prisa para notificar” tuvieron un costo más alto por $5 por registro perdido o robado.

Este año, por primera vez, el informe examinó el efecto de las herramientas de automatización de seguridad que utilizan inteligencia artificial, aprendizaje automático, análisis y orquestación para aumentar o reemplazar la intervención humana en la identificación y contención de una violación. El análisis encontró que las organizaciones que implementaron ampliamente las tecnologías de seguridad automatizadas ahorraron más de $1.5 millones de dólares en el costo total de una infracción ($2.88 millones de dólares, en comparación con $4.43 millones de dólares para aquellos que no implementaron la automatización de seguridad).

Existen estrategias para ayudar a las empresas a reducir el costo potencial de una violación de datos. Por cuarto año consecutivo, el estudio encontró una correlación entre la rapidez con que una organización identifica y contiene una infracción y el costo total.

Las empresas que trabajaron para mejorar la confianza del cliente redujeron la cantidad de clientes perdidos, lo que redujo el costo de una infracción. Cuando desplegaron un líder de alto nivel, como un jefe de privacidad (CPO) o un jefe de seguridad de la información (CISO), para dirigir iniciativas de confianza del cliente, las empresas perdieron menos clientes y minimizaron las consecuencias financieras.

Si desea consultar el estudio 2018 Cost of a Data Breach Study by Ponemon, ingresar a https://www.ibm.com/security/data-breach

Fuente http://computerworldmexico.com.mx/costos-ocultos-de-las-brechas-de-datos-aumentan-los-gastos-para-las-empresas/

Virtualización de Servidores

2018-07-16T10:53:00+02:00julio 16, 2018|Virtualización|

La virtualización de servidores es una tecnología con un concepto simple pero un impacto profundo en los Centros de Datos empresariales.

¿Qué pasaría si, en lugar de ejecutar una instancia de sistema operativo y una aplicación por servidor, puede agregar una capa de software, conocida como hipervisor, que le permite ejecutar varias instancias del sistema operativo y las cargas de trabajo asociadas en un único servidor físico?

Esa es la idea detrás de la virtualización de servidores, y la idea se remonta a los mainframes de IBM en la década de 1960 y fue popularizada por VMware, que introdujo el software de virtualización para servidores x86 a principios de la década de 2000. Desde entonces, otros proveedores han desarrollado sus propias plataformas de virtualización de servidores y la industria en su conjunto ha creado herramientas avanzadas de administración, automatización y orquestación que hacen que la implementación, el movimiento y la administración de las cargas de trabajo de las máquinas virtuales (VM) sean muy sencillas.

Antes de la virtualización de servidores, las empresas tratan la proliferación de servidores, la potencia de cálculo subutilizado, con alza de facturas de energía, con los procesos manuales y con la ineficiencia general y falta de flexibilidad en sus entornos de Centros de Datos.

La virtualización de servidores cambió todo eso y ha sido ampliamente adoptado. De hecho, es difícil encontrar una empresa que no esté trabajando la mayor parte de sus cargas de trabajo en un entorno de máquina virtual.

La virtualización tomó un dispositivo físico y lo dividió en dos, lo que permite que múltiples sistemas operativos y múltiples aplicaciones completas aprovechen la potencia informática subyacente.

El servidor virtual comenzó y se reunió con la consolidación del servidor base. Se pueden combinar múltiples aplicaciones en una sola pieza de hardware, reduciendo así el número total de servidores necesarios en el centro de datos. Menos servidores, menos bastidores, menos equipo de red. Todo se traduce en ahorro de dinero, desde el espacio físico hasta los costos de mantenimiento y el aire acondicionado.

La virtualización de servidores reduce la necesidad de gastos de capital en hardware nuevo, lo que le permite desconectarse de la actualización de hardware.

Con la virtualización de servidores los avances en la automatización le permiten girar una máquina virtual en cuestión de segundos y mover varias cargas de trabajo en el toque de un botón en respuesta a las cambiantes necesidades del negocio. También ofrece la alta disponibilidad, velocidad, escalabilidad, agilidad, rendimiento y flexibilidad que requieren las empresas altamente conectadas basadas en la web de hoy en día.

Además, la virtualización de servidores es la tecnología subyacente que permite a los proveedores del Cómputo en la Nube ofrecer sus servicios.

En Adaptix Networks hacemos uso de las soluciones VMware para brindar a nuestros clientes las mejores herramientas en virtualización y automatización del centro de datos. Le invitamos a ponerse en contacto con nosotros para proveerle más información al respecto, así como los casos de éxito con nuestros clientes.

Fuente http://computerworldmexico.com.mx/cual-es-el-futuro-de-la-virtualizacion-de-servidores/

 

Ir a Arriba