Johnnie Konstantas, Directora de Security Solutions Marketing & Business Development y Shehzad Merchant, Chief Technology Officer de Gigamon, destacan las principales tendencias tecnológicas para el mercado de TI en 2016, destacando en su mayoría apps, virtualización y software defined networks. Emocionantes e inminentes cambios en paradigmas tecnológicos continuarán la transformación de las tecnologías de la información en el 2016.
Johnnie Konstantas, Directora de Security Solutions Marketing & Business Development, destaca las siguientes tendencias a observar en 2016:
Software-defined networks (SDN).– El tema de SDN seguirá siendo un tema altamente debatido y acotado, pero no será aún totalmente implementado. De hecho, el mismo hardware como tradicionalmente se le conoció en 2015, continuará con la misma estructura en 2016.
Server virtualization.– Uno de los impulsores más fuertes en la venta de seguridad. Meintras software-defined networks y network-function virtualization (NFV) dominan la conversación en términos de virtualización de redes; no han sido totalmente implementados. Es claro que, sin embargo, que la virtualización de servidores en cargas de trabajo de seguridad intensas, está en un nivel de masa crítica, con una vasta cantidad de aplicaciones y datos siendo despachados desde máquinas virtuales (VMs). Las organizaciones están buscando en las VMs aprovisionamiento con nuevos ojos, de esta forma, podemos esperar versiones virtualizadas de productos de seguridad y plataformas de visibilidad para ser desplegadas en tiempos récord.
Machine learning in security apps será otro tema el cual en 2016 continuará en relativa oscuridad. Mientras la abundancia de start-ups que pueden predecir el comportamiento negativos de usuarios desde puntos en Big Data, la era de análisis predictivo permanece en una etapa de infancia; desde el punto de su desarrollo y su adopción. Es sin embargo, una tecnología que promete mucho.
Trabajo colaborativo para la seguridad.- Para mejorar la seguridad, las organizaciones voltearán a una colaboración más extensa a lo largo y ancho de sus organizaciones, operaciones de TI y equipos de de operación de redes. Los cambios en la arquitectura de redes, requieren de un acomodo del tráfico machine-to-machine traffic y de iniciativas de detección que demandará que los equipos trabajen en conjunto.
Security tools contention for traffic will reach an all-time high.– Esta tendencia requerirá que más organizaciones desplieguen herramientas de visibilidad y seguridad integral para hacer del monitoreo integral de la red una práctica general, exhaustiva y sistemática.
Data encryption.– La encriptación de datos, ya sea en reposo o en tránsito, incrementará como un asunto prioritario para gobiernos, para el cumplimiento de leyes y protección de los usuarios. Start-ups buscarán dar una respuesta a este tema y proveedores de infraestructuras tradicionales buscarán usar su posición en infraestructuras de red para resolver el problema.
Ataques cibernéticos.– Se elevarán los ataques entre las compañías más protegidas. Los ataques no serán eliminados, pero a los hackers más sofisticados se les hará más difícil violar el accesos a las redes. Las razones principales: Una mezcla de 1) Mejora en el escrutinio de los sistemas de seguridad por expertos en seguridad desde las empresas y refuerzo en las leyes y 2) Una mejor adopción de posturas de seguridad por parte de las organizaciones.
Seguridad gubernamental.– Los gobiernos incrementarán su enfoque a las nuevas realidades en términos de seguridad. Los gobiernos abordarán temas como privacidad, compartir información y las variables que éstos temas podrán tener en el funcionamiento institucional.
Los proveedores de servicios estarán enfocados en el tema de subscriber intelligence para ayudar a monetizar de mejor manera sus redes y asegurar un mejor rendimiento.
Shehzad Merchant, Chief Technology Officer de Gigamon, resaltó predicciones tecnológicas adicionales sobre todo en el tema de la seguridad predictiva en la infraestructura de redes:
Crecimiento en la democratización del malware y el crecimiento en las defensas
En 2014 y 2015 hubo un incremento significativo en el número de violaciones en seguridad de alto perfil a nivel mundial. Con éstas, vimos un crecimiento en ecosistemas de malware que son accesibles como si fueran SaaS. Canales y distribuidores informáticos que facilitan el camino a vulnerabilidades de red.
Hay también los que proporcionan la infraestructura para empaquetar las vulnerabilidades en una variedad de cargas útiles, incluyendo las pruebas y la validación contra las bases de datos de amenazas para asegurar que no son detectables, así como los que proporcionan frente y la infraestructura de back-end, tales como la entrega, facturación y soporte. Hay redes de comando y control disponibles para aprovechar. Lo que todo esto está provocando es que con el fin de llevar a cabo un ataque cibernético, un individuo o equipo no necesita ser muy inteligente, ni tienen para diseñar toda la cadena de ataque. Todo lo que necesitan hacer es juntar los componentes que ahora pueden tener acceso fácilmente. El año que viene habrá una ampliación más allá y fortalecimiento de este ecosistema y, en consecuencia, un conjunto más amplio de actores que pueden tomar ventaja de esto.
Afortunadamente, con la democratización de malware también viene una cierta normalización de la baja en la sofisticación. Así que, mientras vamos a ver algunos ataques muy sofisticados, por aquellos que tienen los medios, recursos y talento; muchos de los ataques cibernéticos también serán más fáciles de detectar, contener y prevenir debido a la población relativamente más grande que prefieren tapar simplemente en los sistemas existentes con poca oscuridad o la ofuscación adicional.
El incremento en la seguridad predictiva
Junto con la democratización de malware vendrá un aumento en el número de actores amenazantes, intentos de violación a las fronteras de las redes y de incidentes. Muchos de estos intentos exhibirán variaciones polimórficas, es decir, variaciones que visualmente harán ver al malware con un aspecto diferente, comportándose de manera diferente, pero en esencia, su objetivo será el mismo. En consecuencia, muchas de estas variantes podrán traspasar más allá de los sistemas de defensa cibernéticos tradicionales como firewalls o soluciones antivirus.
Con el fin de preparar mejor a las organizaciones contra estas amenazas polimórficas, soluciones de Big Data serán desplegadas para centrarse en lo que pueden esperar luego de violaciones a la seguridad. Estas soluciones evaluarán conjuntos de datos masivos de una variedad de fuentes en toda la infraestructura de los usuarios, dispositivos y aplicaciones, así como, instances- virtuales y cloud física y se triangularán contra conjuntos de datos masivos catalogados como de mal comportamiento, para predecir los siguientes pasos en el ciclo de vida del atacante. Este tipo de soluciones predictivas proporcionarán indicadores clave de amenazas dentro de la organización, para permitir una detección más rápida de la huella y la actividad de malware, lo que lleva a la contención rápida.
SDN será víctima de su propio éxito
2016 será un año de “llegar a un acuerdo” para el SDN. Con muchos ensayos y pruebas de concepto (POC) ahora terminando, muchas tecnologías SDN demostrarán que no están del todo listas y simplemente comenzarán a perder brillo y quizás incluso ir en un sentido de desaceleración a la baja. Un subconjunto mucho más pequeño surgirá con tecnologías viables y válidas. Curiosamente, algunas tecnologías comerciales que aprovecharon el éxito de SDN para meterse en las cuentas de los clientes podrán llegar a entrar a una burbuja. En última instancia se trata de solucionar problemas y no en defender un estilo purista. Lo que significa sin embargo que algunas de las tecnologías SDN originales en comparación puede parecer relativamente inmaduras, y pueden quedarse en el camino para favorecer a la variantes más comerciales, siendo el SDN una víctima de su propio éxito.
NFV se moverá desde POCs a deployments
2016 verá moverse a NFV desde POC a despliegues en muchos casos. Y es cuando estaremos viendo los retos reales. El primero de ellos será en el tema de velocidad y rendimiento. Moviéndose desde hardware dedicado, ASICs y FPGAs, a sistemas comerciales off-the-shelf x86 based systems, lo cua, impactará en el rendimiento. La respuesta a lo que viene en NFV ha sido escalara la solución. Después de todo, servidores baratos x86 son fáciles de integrar y almacenar. Pero, escalar, traerá a su vez, una serie de retos adicionales, particularmente si se busca mantener su estado y lidiar con la distribución y balance en el tráfico a través de funciones de red virtualizadas.
Consecuentemente, NFV tendrá un éxito inicial en áreas sin mucho rendimiento en el ancho de banda o necesidades de escala. Esto es un buen inicio, pero la necesidad en el ancho de banda es como la entropía en un sistema abierto. Siempre se incrementa. En este sentido, los sistemas de software que pueden manejar de manera cuidadosa la habilidad de cargar balance, administrar el estado y ayudar a extraer cada onza de rendimiento en ambientes NFV verá un incremento.
La racionalidad reemplazará la tendencia masiva de moverse hacia la nube pública
Los últimos años se han observado organizaciones seguir un movimiento casi de manada en el sentido de la adopción de la nube pública. Se les ha dicho a los CIOs que destinen recursos económicos a la nube pública sin pensar mucho sobre lo que significa SaaS, PaaS, IaaS, etc.
Cuando llega el momento específicamente de IaaS, el encanto de la elasticidad, capacidad de explosividad y facilidad de aprovisionamiento, ha llevado a la mayoría de las organizaciones a invertir dólares y políticas con poco análisis sobre el costo en periodos extendidos o consideraciones de seguridad. Sin embargo, para 2016 mas organizaciones están empezando a costear su estrategia de nube pública antes de siquiera empezar a comprometerse o hacer el movimiento a la nube pública. y eso es algo bueno.
Tener capacidad explosiva en la nube pública es una cosa. Pero tener aplicaciones críticas siempre activas durante años, con grandes volúmenes de datos en la nube pública, en realidad puede ser muy caro. Y trasladarse de una nube pública a una solución en las instalaciones puede llegar a ser incluso más caro que el costo de traslado de datos desde la nube pública no es barato.
Lo que veremos en el 2016 es un CIO más inteligente, más informado, consciente de que puede llegar a pesar los modelos y encontrar el equilibrio adecuado entre lo que la nube pública tiene para ofrecer, en comparación con un modelo híbrido ocurre con las aplicaciones y los datos clave que residen en las instalaciones y la verdadera capacidad de explosividad en la nube pública.