Ir al contenido principal

Silicon Valley


Las computadoras como las conocemos, han recorrido un camino muy largo e interesante desde que la necesidad trabajar con más información se volvió una prioridad para la ciencia, la guerra y la economía, es por eso que el transistor marcó la diferencia de una era en el ramo computacional ya que cambió por completo la industria electrónica. Su concepto implicaba una gran mejora en cuanto a los dispositivos utilizados manejar estados lógicos en circuitos electrónicos, ya que miniaturizaba diversos componentes electrónicos en uno solo haciendo posible la creación de dispositivos más complejos, mismos que hicieron posible llevar a cabo el primer alunizaje. La pasión por la ciencia, motivada por la revolución de hacer la vida de las personas cada vez mejor, es el incentivo adecuado (además del dinero) que llevó a un grupo de científicos a desarrollar la tecnología necesaria bajo el nombre de “FairChild Semiconductor”, hoy “Intel”, después de diversos conflictos de intereses y grandes polémicas relacionadas a la confiabilidad del producto, FairChild logró rebasar tecnológicamente a la competencia que ganó en el océano azul que había creado.
Partiendo del transistor como dispositivo base muchas empresas invirtieron una importante cantidad de presupuesto hacia la investigación científica que permitiera hacer transistores más pequeños, rápidos y confiables pasando por la revolución de los circuitos integrados y más tarde al primer microprocesador.
A pesar de la dificultad que la hoy llamada Intel, por llevar su arquitectura al proceso de fabricación de los 7 nanómetros, queda claro que aún tienen un as bajo la manga, que muy probablemente va de la mano de la perfección y la confiabilidad, así como el potencial de la arquitectura X86-amd64, pues los conjuntos de instrucciones que ahora son el estándar en el cómputo de sobremesa son irremplazables, aún bajo las arquitecturas que ya han logrado alcanzar los 7 nanómetros, y aunque de momento Intel ha enfrentado a la industria “tirando más núcleos al problema” es bastante seguro que se mantendrá su liderazgo con una posible innovación que siga revolucionando las siguientes generaciones de computadoras.

Comentarios

Entradas más populares de este blog

The Free Lunch Is Over

En las últimas décadas, miles de desarrolladores e investigadores han dedicado sus vidas a mejorar la forma en la que vivimos, así como la manera en la que realizamos ; sin embargo, seguir el mismo camino hasta su última consecuencia implica un límite, pues normalmente los materiales que usamos, los teoremas que aplicamos, funcionan bajo un conjunto de circunstancias limitadas. No es una tarea sencilla buscar otra manera, en gran medida desarrollar algo "mejor", suele ir de la mano con un cambio de paradigma (nada sencillo). En la entrada pasada habábamos de FairChild, una compañía que encontró una mejor manera de desarrollar electrónica, y concluímos en cómo la hoy llamada Intel, ha encontrado algunos inconvenientes en reducir su proceso de fabricación pues a pesar de que durante las últimas décadas ha controlado el mercado del silicio, se han dado cuenta que éstamos llegando a los límites que habían previsto, aún cuando su competencia ha logrado llegar al proceso de...

Parallel Computing on any Desktop

OpenCL, CUDA, Tensor, etcétera… Hace tiempo la arquitectura de prácticamente cualquier computadora corría en una suerte de una única frecuencia de reloj que funcionaba en un único paquete de silicio, incluso casi cualquier pieza de software estaba escrita de tal manera en la que se aprovechara ese único núcleo al máximo, incluso gran parte del software que utilizamos hasta nuestros días, está optimizado para un único tiempo de ejecución. De cierto modo Ami Marowka plantea que todo es acerca de qué tan accesible se puede volver la tecnología, tenemos la idea de que Microsoft se volvió el rey de la accesibilidad con su filosofía, y de cierto modo va de acuerdo a la primera ley del paralelismo masivo, el punto importante de Ami es que gracias a la revolución tecnológica en el cómputo de sobremesa, la tecnología es cada vez más accesible. Incluso para desarrollos tecnológicos importantes tenemos RISC5 por el lado del Open Source, que ya no solo se limita a software. Inc...

The State of Parallel Programming

Anteriormente hemos hablado del gran reto de cambiar el paradigma del desarrollo del software, pues este ha logrado mantenerse al grado de que la misma comunidad que lo mantiene fue poco a poco integrando algunos elementos del paralelismo, y a pesar de esto el “mindset” que se requiere para paralelizar procesos durante el desarrollo no se encuentra normalizado. Tal como el caso de los lenguajes de programación más populares, buscando la forma de ofrecer las funciones más actuales. No obstante, al paralelizar con estas herramientas no soluciona el principal problema, de lo que el cambio de paradigma refiere. Según UBM TechWeb, necesitamos más y mejores herramientas para paralelizar tareas en especial cuando nos involucramos con código lo suficientemente complejo como para necesitar debuggeo intensivo, pues muchas veces podemos recaer en paralelización incorrecta, incluso aunque las estadísticas nos digan que un buen número de programadores están familiarizados con...