Columnistas

Es muy utilizada para deducir planteamientos teóricos y simulaciones de modelos de investigación, como fórmulas, resultados de cierta cantidad de información

Computación paralela

Por: Emmanuel Santiago

27 de Junio 2016, 00:00

Este tipo de computación se utiliza con regularidad en la investigación científica, generalmente en universidades y centros de investigación que necesitan procesar una cantidad muy grande de datos y procesos, maximizando los recursos computacionales, jerarquizándolos para la obtención de resultados escalonados.

La computación paralela es el procesamiento masivo de datos con un número determinado de máquinas que están trabajando simultáneamente y de forma paralela para procesar grandes cantidades de información.

Existen investigaciones que requieren de una gran capacidad de cómputo para la obtención de resultados, como la deducción de ciertas fórmulas matemáticas o físicas, por lo que principalmente el uso de este tipo de cómputo a diferencia de otros, gira en torno a procesos intrínsecamente paralelos, como simulaciones de modelos moleculares, climáticos o económicos con amplios componentes paralelo, como los sistemas que a su vez representan.

La computación paralela se diferencia de la computación en la nube esencialmente porque en la nube, existen recursos disponibles que se aprovisionan de acuerdo a una solicitud determinada y estas infraestructuras, generalmente tienen la capacidad de procesar múltiples clientes. La computación paralela es un procesamiento de datos masivo con un solo objetivo: procesar información con mayores recursos de manera simultánea para obtener un resultado específico.

Computación paralela

Centra sus esfuerzos principalmente en la ciencia y en la investigación. Es muy utilizada para deducir planteamientos teóricos y simulaciones de modelos de investigación, como fórmulas, resultados de cierta cantidad de información. La computación paralela permite obtener resultados específicos de una cantidad masiva de datos. En la actualidad, la aplicación de este tipo de cómputo radica principalmente en industrias que invierten importantes recursos económicos y humanos en la investigación y desarrollo de productos, procesos y servicios que demandan un nivel de especialización y metodologías científicas muy elevadas.

Sin embargo, no sólo empresas químicas o aeroespaciales hacen uso del cómputo paralelo. Las empresas de consumo con grandes cantidades de datos y retos, requieren de un procesamiento de datos importante para tomar decisiones las cuáles, serían difíciles de lograr de una manera lineal o secuencial, por ello, la importancia del cómputo en paralelo.

En términos de seguridad

El cómputo paralelo prácticamente no está expuesto a vulnerabilidades mayores al no estar concretado en un solo repositorio informático continuamente conectado a redes tradicionales. Es complicado pensar en una arquitectura de seguridad que proteja este tipo de diseños y no porque no sea posible sino porque la cantidad tan enorme de datos que son procesados requeriría de infraestructuras de seguridad demasiado caras para protegerlas. Las infraestructuras de seguridad hoy en día están diseñadas para inspeccionar y detectar ataques, no para procesar grandes cantidades de información.

Las amenazas reales a la computación paralela es el tema de la modificación de los datos que esta usa para desarrollar modelos y obtener sus resultados. El afectar los datos ahí encontrados y procesados, alteraría los resultados para cada una de las investigaciones. Más que ataques, el punto débil es la cantidad y calidad de la información que se procesa. Estas máquinas tienen una gran capacidad de procesamiento que a su vez tienen repositores de almacenamiento que en ocasiones no están físicamente en el mismo país, pero al final del día, el cambio en los datos representaría el mayor de los problemas.

El futuro de la computación paralela

Es relevante para la investigación científica. El análisis de la información para los investigadores, será cada vez más importante para lograr mejores resultados en un menor lapso de tiempo. Dotar de una capacidad de analizar grandes cargas de información realmente relevante es el futuro de este tipo de computación; procesar datos específicos de investigadores como estadísticas, fórmulas y datos, para centrar la atención en el procesamiento de ciertos datos en cantidades masivas. En este sentido debemos tener en mente el tema de Big Data y Metadata, relacionados íntimamente en el procesamiento e interpretación de este tipo de información.

El futuro de la seguridad en el cómputo paralelo más que sumar arquitecturas de seguridad a la infraestructura, buscará la forma de utilizar el tráfico que se está recibiendo para ser derivado a ciertas máquinas con las mejores capacidades para determinadas tareas. Hacer que las herramientas involucradas, les llegue el tráfico relevante a un nodo de procesamiento específico; diseñar arquitecturas menos complejas para incrementar la capacidad de procesamiento y que sólo trabajen con información relevante, automáticamente habilitando una infraestructura de seguridad al nivel del procesamiento.

Hoy, no sólo las infraestructuras de cómputo paralelo sino todas, reciben más del 60 % de tráfico con información que no es relevante. Un firewall puede recibir un paquete de voz que no entiende, dado que su trabajo es traducir y revisar el paquete, pero no analiza dicho paquete como tal. Al recibir el paquete de voz en la entrada del firewall, ocupa cierta capacidad de procesamiento para descartar inclusive el paquete de voz si este, no tiene relevancia.

 

...

Emmanuel Santiago

Regional Sales Director, Gigamon México

Tags:

Columnistas

Factor humano

  • 28 May, 2018
  • Ricardo Martínez

Para la proteger los datos confidenciales de una empresa se deben tener en cuenta dos factores: el técnico y el humano. De acuerdo con las últimas tendencias en seguridad informática, los desarrollos se enfocan cada vez más en el comportamiento de las personas

Columnistas

Infraestructura TI

  • 05 Mar, 2018
  • Crispín Velez

En la era de la transformación digital, los enfoques de TI que funcionaron en el pasado ya no son los ideales para maximizar este entorno tan dinámico

Columnistas

Espacios de trabajo para equipos ágiles

  • 12 Feb, 2018
  • Martín Salías

Los lugares y las formas de trabajar están cambiando, y este es un tema recurrente en las organizaciones. Como el foco principal del paradigma ágil es la colaboración, muchas veces llega un momento en que ellos notan que sus espacios de trabajo no son ideales

Columnistas

¿Quién lidera la Transformación digital?

  • 06 Feb, 2018
  • Luis Piccolo

Según IDC FutureScape, dos tercios de las principales 2000 empresas a nivel global ya vienen ejecutando la transformación digital como centro de sus estrategias corporativas. El éxito de este proceso depende de la elección del ejecutivo

Columnistas

¿Tienes problemas con tu conexión WiFi?

  • 20 Oct, 2017
  • Erika Bernales

En la actualidad, es usual escuchar en el transcurso del día que una persona se queje de algún inconveniente con su conexión a Internet, una realidad por la que todos hemos pasado tanto fuera o dentro de casa. Sin embargo, esta situación no sólo recae en el se

Columnistas

Telemedicina

  • 26 Set, 2017
  • Guillermo Nuñez

Fuera de los obstáculos físicos, el Perú presenta una larga brecha social que debe cubrir a lo largo y ancho de su territorio, siendo dos los aspectos de mayor impacto social en los que toda nación puede y busca mejorar. El primero es el de trabajar hacia una