Next: Objetos Evolutivos Paralelos
Up: Bibliotecas de Programación Paralela
Previous: Tolerancia a Fallos
  Índice General
Según lo visto, los programas desarrollados utilizando MPI serán más rápidos en grandes multiprocesadores. Además, dicha biblioteca tiene muchas más opciones de comunicación "punto a punto" y "colectivas" que PVM, y puede especificar cualquier tipo de topología de comunicación. Esto es importante si un algoritmo depende de la existencia de un tipo concreto de comunicación.
Por otro lado, PVM es preferible cuando las aplicaciones se van a ejecutar en redes (clusters de ordenadores) heterogeneos. Esta biblioteca presenta una buena interoperabilidad entre diferentes nodos, y la posibilidad de desarrollar aplicaciones tolerantes a fallos.
Así pues, si una aplicación se va a desarrollar y ejecutar en un MPP, entonces MPI nos ofrece la ventaja de conseguir mejoras en las comunicaciones, al tiempo de que la aplicación será portable a otros MPP.
En el desarrollo de este proyecto se ha hecho uso de la biblioteca MPI como base para OEP, ya que presenta ciertas ventajas sobre PVM que hemos creído decisivas:
- Tiene definido un ámplio conjunto de rutinas de comunicación punto-a-punto.
- Tiene definido un ámplio conjunto de rutinas de comunicación entre grupos de procesos.
- Tiene definido un contexto de comunicación para el diseño de bibliotecas paralelas.
- Tiene la posibilidad de especificar diferentes topologías de comunicación.
- Tiene la posibilidad de crear tipos de datos derivados para enviar mensajes que contengan datos no contiguos en memoria.
- Existen varias implementaciones de calidad de MPI disponibles (LAM, MPICH, CHIMP).
- Existe una implementación de MPI para C++.
- En MPI se puede hacer uso de comunicación asíncrona.
- MPI maneja más eficientemente el paso de mensajes.
- Usando MPI se pueden desarrollar aplicaciones más eficientes en MPP y clusters.
- MPI es totalmente portable.
- Existe una especificación formal de MPI.
- MPI es un estándar (sus características y comportamiento se acordaron en un foro abierto).
- MPI posee un conjunto de funciones de comunicación más ámplio que el disponible en PVM.
Next: Objetos Evolutivos Paralelos
Up: Bibliotecas de Programación Paralela
Previous: Tolerancia a Fallos
  Índice General
Francisco Javier Garcia Castellano
2000-12-14