Loading presentation...

Present Remotely

Send the link below via email or IM

Copy

Present to your audience

Start remote presentation

  • Invited audience members will follow you as you navigate and present
  • People invited to a presentation do not need a Prezi account
  • This link expires 10 minutes after you close the presentation
  • A maximum of 30 users can follow your presentation
  • Learn more about this feature in our knowledge base article

Do you really want to delete this prezi?

Neither you, nor the coeditors you shared it with will be able to recover it again.

DeleteCancel

Make your likes visible on Facebook?

Connect your Facebook account to Prezi and let your likes appear on your timeline.
You can change this under Settings & Account at any time.

No, thanks

INTRODUCCION AL PROCESAMIENTO PARALELO

No description
by

Jorge Luis Jimenez Tenorio

on 25 October 2013

Comments (0)

Please log in to add your comment.

Report abuse

Transcript of INTRODUCCION AL PROCESAMIENTO PARALELO

Niveles del paralelismo
INTRODUCCIÓN AL PROCESAMIENTO PARALELO
Índice
Introducción
Necesidad de paralelismo
Niveles de paralelismo
Tendencia en el diseño de computadoras
Paralelismo en sistemas monoprocesadores
Multiplicidad de unidades funcionales
Paralelismo y segmentacion dentro de la CPU
Solapamiento de las operaciones de CPU y de E/S
Uso de un sistema jerarquico de memoria
Equilibrado de los anchos de banda de los subsistemas
Multiprogramación y tiempo compartido

Introduccion
Forma eficaz de procesamiento de información que favorece la explotación de los sucesos concurrentes en el proceso de la computación
Concurrencia implica paralelismo, simultaneidad y solapamiento
sucesos paralelos se pueden producir en diferentes recursos durante el mismo intervalo de tiempo
sucesos simultáneos se puden producir en el mismo instante de tiempo
sucesos solapados se pueden producir en intervalos de tiempo superpuesto
PROCESAMIENTO PARALELO
En todos los computadores existe algún tipo de paralelismo
Computadores paralelos han sido diseñados expresamente para explorar al máximo la concurrencia
Computadores paralelos
Objetivos del Diseño
Conseguir una mayor velocidad de procesamiento
Aplicaciones
Científicas
Simulaciones numéricas de sistemas complejos como aerodinámica, sismología, física atómica y nuclear

Socio-económicas
Procesar grandes cantidades de datos de forma sofisticada como realidad virtual
Paralelismo funcional
La ejecución de diferentes funciones (lógicas, adición, multiplicación) es realizada en un mismo procesador, simultáneamente por varias unidades especiales
Paralelismo temporal(segmentación)
Descomponer las operaciones que realizan las unidades de control y aritmético-lógica
Tendencias en el diseño de computadores
Paralelismo en sistemas monoprocesadores
Planteamiento software a nivel S.O.
Multiprogramación

Tiempo Compartido
Paralelismo y segmentación dentro de la CPU
Computadores actuales
Sumadores paralelos en la ALU utilizando técnicas de anticipación de acarreo y salvaguarda de acarreo

Técnicas paralelas y de compartición de recursos hardware en la multiplicación y división

Las fases de ejecución de una instrucción se fraccionan en etapas
Necesidad del paralelismo
Paralelismo especial o replicación
Varios procesadores operan sobre diferentes datos. Cada uno de estos procesadores puede tener su propia unidad de control
Captación de la instrucción desde IBR o de Memoria con MBR
Codop se carga en IR

Dirección se carga en MAR

Ley de Moore

Número de transistores que se pueden integrar en un chip se duplica cada año
Válida durante años

A partir de los 70 se duplica cada 18 meses

Segmentación diferentes etapas de varias instrucciones se ejecutan concurrentemente

Múltiples etapas funcionales-varios multiplicadores, sumadores controlados por un único flujo de instrucción

Múltiples computadores debido a los avances en tecnología (computadores masivamente paralelos)

Frenbach

Los mainframes de hoy habrían sido considerados supercomputadores hace 20 años

Supercomputadores actuales
Billones de operaciones en punto flotante
Longitud de palabra de 64 bits
Memoria principal de millones de palabras

Ejecución de la instrucción
Circuitos de control interpretan el Codop

Envían señales de control para:

Provocar una transferencia de datos
Que la ALU realice una operación

Formato palabra

0-7 codop izquierda
18-19 dirección de memoria
20-39 codop y dirección derecha

Planteamientos Hardware

Planteamiento Software a nivel sistema operativo
Primera generación de computadores
Sumadores Bit-serie en la ALU

Ejecución de una instrucción completa antes de comenzar con la siguiente
Solapamiento
Primera generación de computadores

CPU ejecuta programas de E/S
Hardware reducido
Gran consumo de tiempo de CPU
Uso de sistema jerárquico de memoria
CPU más rápida que el acceso de memoria
Objetivo acortar la diferencia de velocidad
jerárquico de memoria

Equilibrio de A.B. de subsistemas
En general, tiempo de acceso medio de dispositivo (td) tiempo de ciclo de procesado (tp) tiempo de ciclo de memoria (tm). Td>tm>tp
Multiprogración
Planteamiento inicial

Múltiplos procesos activos
Tipos de programas, cálculos intensivos e intensivos en E/S
Multiprogramación
Solapamiento de las operaciones de CPU y E/S para varios programas
Tiempo compartido
Situación inicial, con la multiprogramación se comparte la programación entre varios programas, un programa de alta prioridad puede ocupar la CPU por mucho tiempo.

Objetivo es proporcionar igualdad de oportunidades a todos los programas de comparten la CPU

Solución es el tiempo compartido, asignación de intervalos de tiempo (time slices)

Extensión de la multiprogramación, mayor ahorro de tiempo de espera para la CPU
Full transcript