OpenCL, CUDA, Tensor, etcétera…
Hace tiempo la
arquitectura de prácticamente cualquier computadora corría en una
suerte de una única frecuencia de reloj que funcionaba en un único
paquete de silicio, incluso casi cualquier pieza de software estaba
escrita de tal manera en la que se aprovechara ese único núcleo al
máximo, incluso gran parte del software que utilizamos hasta
nuestros días, está optimizado para un único tiempo de ejecución.
De cierto modo Ami
Marowka plantea que todo es acerca de qué tan accesible se puede
volver la tecnología, tenemos la idea de que Microsoft se volvió el
rey de la accesibilidad con su filosofía, y de cierto modo va de
acuerdo a la primera ley del paralelismo masivo, el punto importante
de Ami es que gracias a la revolución tecnológica en el cómputo de
sobremesa, la tecnología es cada vez más accesible.
Incluso para
desarrollos tecnológicos importantes tenemos RISC5 por el lado del
Open Source, que ya no solo se limita a software.
Incluso cuando
hablamos de paralelismo, el software puede volverse nuestro principal
interés, ya que aún con un gran potencial de paralelismo en
hardware, es sumamente necesario que encontremos una manera cada vez
más coherente de manejar múltiples procesos de manera que este
paradigma se normalice.
Es bastante probable
que una de las razones por las que el paralelismo no ha alcanzado
todo su potencial al 100%, incluso a pesar de haberlo integrado a
nuestro paradigma lo más que hemos podido en las últimas décadas,
es en realidad porque necesitemos mejorar o cambiar la forma en cómo
aprendemos a programar buscando que el paralelismo esté siempre
presente. Como ya he venido mencionando en entradas anteriores, este
cambio de paradigma no será una cuestión sencilla para muchos; sin
embargo es bueno tener fe en las siguientes generaciones de
computólogos.
Comentarios
Publicar un comentario