César Cañada Alonso

César Cañada Alonso

Ingeniero informático. Trabajo en mi pasión desde 2014, me dedico a la tecnología y arquitectura Cloud pero me encanta la programación, Linux, las bases de datos...no me gusta aburrirme. Me encanta el invierno, el deporte y la lectura.
Cloud
Un viaje desde el mainframe hasta la nube
Este es el relato del viaje profesional de una personaje, en parte ficticio y en parte real, desde sus primeros días en Madrid, cableando la telefonía fija, hasta su encuentro con los primeros mainframes de IBM y su evolución hacia la nube. ______ Llegué a Madrid por primera vez en 1955 y viví cerca de la calle Amaniel. Por diversas razones, terminé trabajando en tendidos de cableado para Telefónica, dirigidos a la telefonía fija, lo cual era muy diferente a lo que realizaba en mi pueblo natal. Este trabajo físico tenía una paga asignada de 60 pesetas al mes. Fue mi primer contacto con una empresa de telecomunicaciones. Durante años me estuve dedicando al tendido de cables… con la entrada de la década de 1960 pude ver por primera vez un ordenador IBM, era el modelo S/360. Era la época del "mainframe", los ordenadores gigantes ocupaban salas enteras. Estos dispositivos, vistos frecuentemente en fotos de archivo, utilizaban tubos de vacío y abarcaban unos 140 metros cuadrados, ¡llegando a pesar alrededor de 30 toneladas! Fotografía: NASA. El IBM S/360 revolucionó la industria al separar el hardware del software, permitiendo que los programas se ejecutaran en diferentes máquinas con la misma arquitectura. La revolución del IBM S/360 ¿Qué tenía de especial el S/360? Este modelo se convirtió en un hito significativo en la historia de la informática, ya que fue el primer ordenador en separar el hardware del software. Además, representó mi primer contacto con la informática. Un manifiesto que apareció años más tarde resumía bien ese descubrimiento: "Hoy he hecho un descubrimiento, he encontrado un ordenador. Espera, esto es increíble". Anteriormente, los programas debían ser escritos específicamente para cada máquina. Sin embargo, al separar el hardware del software, los programas podían ejecutarse en cualquier otra máquina que compartiera la misma arquitectura. Cambié de área y dejé de tender cables de telefonía para enfocarme en cables de datos. Durante la década de 1960 los transistores reemplazaron a los tubos de vacío, logrando así una reducción significativa en el tamaño y peso de los ordenadores. En la década de 1970, Texas Instruments desarrolló el chip (circuitos integrados), lo que aumentó la velocidad de cálculo y procesamiento además de contribuir aún más a la disminución del tamaño de los componentes. Los avances tecnológicos de la década de 1970, como el desarrollo del chip por Texas Instruments, transformaron los ordenadores, haciéndolos más rápidos y compactos. La evolución de los centros de procesamiento de datos Durante la década de 1980 tuve la ocasión de ver lo que podemos considerar como los primeros centros de procesamiento de datos (CPD). Los servidores comenzaron a ser más compactos y manejables, al igual que las cabinas de almacenamiento de datos. Entonces era habitual "enracar", es decir, colocar los servidores en grandes armarios (racks) para organizarlos de manera vertical. Esto nos permitía alojar varios equipos en un mismo espacio y optimizar el uso del área disponible en una sala del edificio. Para que os hagáis una idea, las cabinas de almacenamiento, compuestas por cientos de discos duros agrupados, alcanzaban un peso de hasta 1000 kilos. Hoy, con discos SSD/NVME, lo habitual es que las cabinas no superen los 500 kilos. Mientras que un servidor que antes solía pesar entre 50 y 60 kilos hoy no es habitual que supere los 35 kilos. En 1980 trabajé por primera vez en un proyecto de integración de redes de datos con los CPD, lo que me permitió ver de cerca cómo la informática empezaba a transformar el mundo empresarial. En esta nueva fase los servidores están interconectados con el almacenamiento y la red, lo que permite su acceso remoto desde los puestos de trabajo a través de redes locales. Aquí hay una imagen de esos armarios de servidores. Os voy a ser sincero: normalmente no está todo tan ordenado. Como diríamos hoy, es una imagen de postureo para Instagram. Rack de servidores IBM. Fuente: izquierda, derecha. Un pequeño diagrama de la arquitectura tradicional: Fuente. La llegada de la virtualización A principios de los 2000 surgió un nuevo concepto llamado "virtualización". Se decía que sería una revolución, y lo fue. La primera vez que vi de qué era capaz la virtualización, me sorprendió: nos permitía tener varios servidores dentro de un único servidor físico, ejecutando diferentes aplicaciones. Fue un avance rompedor, aunque es verdad que ya en 1964 IBM había lanzado el CP/CMS, que incluía el primer hipervisor capaz de crear máquinas virtuales. Antes de eso, en los CPD tradicionales que conocí en Telefónica, donde el proceso de instalación de servidores en los racks y su cableado resultaba físicamente laborioso, era necesario disponer de un servidor físico dedicado para cada funcionalidad. Ahora todo opera en un mismo lugar, lo cual ha permitido una reducción significativa tanto del hardware como del esfuerzo físico reqeurido. Para las empresas, esto representó una ventaja significativa en términos de reducción de costes. Para nosotros los técnicos supuso una mejora de nivel. La virtualización simplificó la complejidad de las arquitecturas y las infraestructuras, mejorando considerablemente los tiempos de entrega de los proyectos a los clientes. A continuación, un diagrama que ilustra la evolución desde una arquitectura tradicional hacia una con la incorporación de la virtualización a gran escala. Fuente. Hacia los centros de datos definidos por software ¿Podemos considerar ya esto como Cloud? Todavía no, aún queda un poco. Los CPD virtualizados tuvieron que evolucionar hacia los centros de datos definidos por software (SDDC, por sus siglas en inglés). El concepto de SDDC surgió ya entrada la segunda década de los 2000, con una primera mención en 2012. Más que una arquitectura en los CPD, los SDDC representan una “filosofía”, una idea, un concepto. En los SDDC los pilares fundamentales de la arquitectura se virtualizan, incluyendo el hardware, la red y el almacenamiento, sobre los cuales se sitúa una capa de gestión. Cada uno de estos componentes aporta beneficios específicos a la infraestructura, que podemos resumir de la siguiente manera: Virtualización: El primer paso hacia los centros de datos virtuales. La CPU y la memoria se separan del hardware físico, permitiendo que las aplicaciones y los sistemas operativos funcionen encapsulados y separados, en máquinas virtuales aisladas. Red: La red también se puede virtualizar, lo que se conoce como SDN (Software defined network o red definida por software). Esto permite desacoplar los recursos de la red del hardware. Facilita emular componentes de red sin necesidad de tenerlos físicamente. Almacenamiento: La virtualización del almacenamiento y el SDS (Software Defined Storage) permiten ahorro, simplificación, eficiencia y mayor control por parte del usuario. Fuente. La transformación en la nube Y esto, ya sí es lo que conocemos como “Cloud”: grandes instalaciones de Centros de Procesamiento de Datos (CPD) físicos que albergan Centros de Datos Definidos por Software (SDDC) en cientos de servidores ‘enracados’, montados en racks (los armarios que veíamos antes) para virtualizar, y cabinas de almacenamiento combinadas con Software-Defined Storage (SDS) para mejorar la capacidad. Todo ello combinado con una infraestructura de red tanto virtual (SDN) como física. Un servicio Cloud permite a los usuarios conectarse a sus datos o servidores en centros de datos a través de internet. La computación en la nube marcó una nueva era: la tecnología que antes ocupaba salas enteras ahora está al alcance de cualquier persona con una conexión a internet. La evolución hacia la IA en los centros de datos Llegando al final de la década pasada, hacia 2018 o 2019, surge un nuevo concepto que introduce la inteligencia artificial (IA). Se comienza a hablar entonces de los Self-Driving SDDC o centros de datos autogestionados. El objetivo de esta evolución conceptual es reducir la intervención humana en la gestión de las operaciones diarias en estos centros. En cambio, serán las herramientas alrededor del CPD las que se encarguen de gestionar la plataforma y aborden los problemas que puedan surgir. El capítulo sobre la integración de la IA con los CPDs y la “nube” será muy relevante, aunque con mis casi 94 años es posible que yo ya no vea su conclusión. La persistencia del mainframe en la era de la nube Para finalizar, una reflexión: ¿El mainframe está obsoleto? No completamente, ya que no todo se encuentra en la “nube”. Como dice una de las principales empresas del sector informático, "con el auge de la computación en la nube algunos pueden pensar en el mainframe como un dinosaurio tecnológico.” La realidad es que un informe de 2022 indica que 45 de los 50 principales bancos mundiales y 11 de las 15 principales compañías aéreas utilizan mainframes en su infraestructura. El mainframe ha evolucionado junto con otras tecnologías para adaptarse a mejoras en rendimiento, velocidad y capacidad. Hoy en día se considera que estos son ordenadores de alto rendimiento, capaces de realizar miles de millones de operaciones y transacciones en tiempo real. Las grandes empresas utilizan actualmente entornos híbridos (arquitecturas distribuidas) que combinan las ventajas de diferentes sistemas, complementándose entre sí. Fuentes: — ¿Qué es un mainframe? — Evolución histórica del Cloud
18 de marzo de 2025
Cloud
Zero trust, tendencia en el entorno de seguridad cloud
En la actualidad, la superficie de ataque es mayor que antes, ya que ahora en las empresas existen más aplicaciones, servidores, usuarios, etc. Por esta razón, es preciso limitar el acceso, otorgando únicamente los permisos que se necesitan, a los puertos imprescindibles y Just In Time o en el momento justo (es decir, en el momento de la conexión). Esto se puede conseguir con lo que se conoce como entorno Zero Trust o entorno de confianza cero. Esta es una de las soluciones de seguridad más implementadas en entornos virtualizados y cloud desde hace relativamente poco tiempo, aunque este concepto apareció por primera vez en 2010. La idea de la confianza cero es que no se confía en nada ni nadie, aunque esté dentro de la red de la empresa, sea un empleado de esta o sea un flujo de comunicación necesario entre dos aplicaciones, no se da por defecto acceso al entorno. Esta idea es totalmente opuesta al modelo de seguridad perimetral que muchas empresas tienen actualmente y donde la idea principal es “confía y verifica”. Con este tipo de entorno Zero trust se reducen las brechas de seguridad y se ofrece más protección a la organización reduciendo la complejidad de la infraestructura, junto con una monitorización constante del entorno para hacer frente a las posibles alertas. CYBER SECURITY Introducción al análisis de malware: tipos que existen, síntomas y cómo identificarlos 6 de octubre de 2022 En la siguiente imagen sacada de Netrozome, podemos ver una representación gráfica de un entorno de confianza cero. En la imagen izquierda se puede ver una arquitectura tradicional donde dentro del entorno se confía en todos los equipos, usuarios y aplicaciones, y se permiten todas las conexiones. Si se lanzara un ataque contra este entorno y, finalmente, se obtuviera acceso a un recurso de este, se tendría acceso al resto los recursos de la organización. En la imagen de la derecha se puede ver un entorno de confianza cero donde las conexiones, los equipos, los usuarios y las aplicaciones no tienen esa libertad de comunicación entre ellas. De esta manera, si durante un ataque se consiguiera acceso a algún recurso, sería muy complicado realizar un intento de acceso al resto de elementos del entorno ya que los accesos y comunicaciones permitidos son únicamente los necesarios y se rechaza el resto. A continuación, vemos una lista de ataques que se pueden detener con mayor facilidad usando un entorno de confianza cero: Phishing a través de correos electrónicos. Robo de contraseñas. Filtraciones en bases de datos. Intentos de accesos no autorizados. Keyloggers en los equipos de los trabajadores. Es fundamental no solo proteger la empresa, datos o clientes desde un punto de vista exterior, sino que también protegerla desde el interior. Por este motivo, los entornos Cloud y virtualizados están cambiando de enfoque a la hora de definir e implementar nuevas arquitecturas de red y seguridad.
14 de noviembre de 2022