Ir al contenido principal

Entradas

Mostrando las entradas de febrero, 2019

The State of Parallel Programming

Anteriormente hemos hablado del gran reto de cambiar el paradigma del desarrollo del software, pues este ha logrado mantenerse al grado de que la misma comunidad que lo mantiene fue poco a poco integrando algunos elementos del paralelismo, y a pesar de esto el “mindset” que se requiere para paralelizar procesos durante el desarrollo no se encuentra normalizado. Tal como el caso de los lenguajes de programación más populares, buscando la forma de ofrecer las funciones más actuales. No obstante, al paralelizar con estas herramientas no soluciona el principal problema, de lo que el cambio de paradigma refiere. Según UBM TechWeb, necesitamos más y mejores herramientas para paralelizar tareas en especial cuando nos involucramos con código lo suficientemente complejo como para necesitar debuggeo intensivo, pues muchas veces podemos recaer en paralelización incorrecta, incluso aunque las estadísticas nos digan que un buen número de programadores están familiarizados con

Welcome to the Jungle

“Welcome to the jungle we've got fun and games ♪♫♬” El ser humano siempre ha buscado alternativas para todo lo que le aqueja, si lo que estaba usando antes ya no satisface sus necesidas. Puede que las condiciones cambien o que las necesidades lo hagan. Así como hablamos en “The Free Lunch is Over”, tenemos que la problemática del proceso de miniaturización de las computadoras, está alcanzando un límite, este límite en realidad tiene un nombre y es conocido como “La ley de Moore”, la única alternativa obvia a no poder miniaturizar más es hacer chips más grandes. Anteriormente los chips que encontrábamos en muchas computadoras era ya de por sí muy grande y con especificaciones de energía que llegaban a ser exorbitantes si el rendimiento que buscábamos también era considerable, esta opción no parece ser tan mala para los fabricantes que rápidamente se aproximan a escalas subatómicas de medición, donde todo se vuelve un misterio de acuerdo a la física. Sin embargo la le

Parallel Computing on any Desktop

OpenCL, CUDA, Tensor, etcétera… Hace tiempo la arquitectura de prácticamente cualquier computadora corría en una suerte de una única frecuencia de reloj que funcionaba en un único paquete de silicio, incluso casi cualquier pieza de software estaba escrita de tal manera en la que se aprovechara ese único núcleo al máximo, incluso gran parte del software que utilizamos hasta nuestros días, está optimizado para un único tiempo de ejecución. De cierto modo Ami Marowka plantea que todo es acerca de qué tan accesible se puede volver la tecnología, tenemos la idea de que Microsoft se volvió el rey de la accesibilidad con su filosofía, y de cierto modo va de acuerdo a la primera ley del paralelismo masivo, el punto importante de Ami es que gracias a la revolución tecnológica en el cómputo de sobremesa, la tecnología es cada vez más accesible. Incluso para desarrollos tecnológicos importantes tenemos RISC5 por el lado del Open Source, que ya no solo se limita a software. Inc