Hace 7 años | Por --534642-- a blogs.publico.es
Publicado hace 7 años por --534642-- a blogs.publico.es

El circuito integrado, que en la terminología anglosajona se denomina “chip”, es uno de los dispositivos que más ha influido en nuestra vida cotidiana. Aparatos tales como el teléfono móvil, el ordenador personal, la navegación por Internet, incluso los automóviles actuales, serían impensables sin el circuito integrado (en lo que sigue, CI). Fabricar uno de ellos es un procedimiento extraordinariamente complejo y delicado, en el que confluyen un elevado número de procesos, de materiales diferentes, de reglas de diseño, etc. La tecnología mic...

Comentarios

manuelpepito

#1 Te olvidas de la sal

D

#2 y la cebolla y el huevo .... ah, no espera que no es aquí ....

D

#2 cierto

lentulo_spinther

#1 Recuerdo una gran receta del afamadísimo Sergi Arola. Imposible de hacer si no tienes su destreza: chips de ajo

D

Receta de, Sergi Arola.: chips de ajo de, #7

D

#1 cierto

Nova6K0

El "Test" no es que lo expliquen mucho, la verdad.

El caso es que por ejemplo para dar la frecuencia de reloj, megahertzios/gigahertzios de un procesador, se usa un poco la prueba de error. Teniendo cada uno de los procesadores, cortados de la oblea de silicio, se prueban diferentes frecuencias hasta que una de ellas hace que la estabilidad del procesador sea tal que permita su uso sin problemas. Por ejemplo:

Procesador a 3,6 Ghz -> Resultado fallido -> Inestable, da problemas, fallos...

Procesador a 3,5 Ghz -> Resultado fallido -> Lo mismo, Inestable, da problemas, fallos...

Procesador a 3,4 Ghz -> Resultado fallido -> Inestable, da pocos fallos

Procesador a 3,3 Ghz -> Resultado fallido -> Inestable, algún fallo.

Procesador a 3,2 Ghz -> Resultado correcto -> Estable sin ningún fallo.

Entonces ese procesador queda como un procesador de 3,2 Ghz.

En realidad el proceso, suele ser al revés, se prueba una frecuencia y se sigue subiendo hasta que de problemas.

Esto ultra-resumido claro.

Por cierto luego también existen otros problemas como fallos de diseño, por ejemplo AMD en realidad nunca quiso sacar procesadores de 3 núcleos (Phenom), fue un núcleo con problemas que tuviera que ser desactivado, por eso cuando alguien descubrió como activar este se dio cuenta que mejor que no lo hubiese activado, porque era un núcleo problemático o dañado.

Salu2

c

#6 En realidad se diseña para una frecuencia concreta, se simula y resimula docenas de veces para ir a esa frecuencia. La implementación se hace para una determinada frecuencia que depende de la máxima frecuencia del diseño (dejando un margen), si se hiciera a ojo sería una pérdida de recursos. Además, en muchos chips, por ejemplo microcontroladores, la frecuencia no puede ser aleatoria, un ejemplo es si tiene un módulo usb, que tiene que ser una frecuencia concreta (no necesariamente la del usb, pueden usarse múltiplos/divisores y utilizar pll y esas cosas). No siempre se busca la máxima frecuencia.

El problema es que las simulaciones se basan en modelos, e incluso con parasíticos puede haber fallos. En esos casos, quizás merezca la pena económicamente reducir la frecuencia y vender antes que arreglarlo, pero no es habitual. Lo que sí pasa al diseñar osciladores (los cristales son más precisos) y otros dispositivos como referencias de tensión es que se hace un proceso de trimming para ajustar chip a chip la frecuencia/tensión/lo que sea porque puede cambiar si por ejemplo es del borde o del centro de la oblea.

De hecho el proceso de trimming puede ser considerado parte de la etapa de test. Como dice el artículo, la foudry hace tests en la oblea, de hecho no es raro que metan en tu diseño osciladores, condensadores y otras estructuras para testear el proceso e incluso pueden programar algún código, medir capacidades, resistencias, etc. Después se encapsula y se envía a la empresa que lo diseñó, que hace tests no sólo funcionales, sino evaluaciones completas para ver que todos los parámetros están en los rangos esperados y en todas las condiciones. En el caso de la frecuencia de trabajo, si ese chip la tiene (que no todos los chips son microprocesadores) se medirá mínimo a diferentes tensiones, temperaturas y con obleas 'trucadas' o corners para tener más variabilidad. Toda esta variabilidad hace que el método de prueba y error no sea muy preciso, por ejemplo te puede ir a una frecuencia en temperatura ambiente y a 125 ºC no, o puede que un chip del centro funcione y uno del borde inferior no, o cientos de combinaciones más, incluso puede que no se ejecute un código que mueva adecuadamente un critical path para que provoque el fallo, pero éste siga ahí pasando desapercibido. No es tan fácil forzar un fallo para todas esas condiciones. En definitiva es más sencillo diseñarlo para una frecuencia y luego medir que ésta está dentro de las especificaciones de diseño en diferentes condiciones y muchos chips.

Nova6K0

#8 Es así como me lo enseñaron a mí. Dentro de unos baremos dentro de las especificaciones, probar diferentes frecuencias hasta encontrar una estable. Obviamente no se va a empezar desde 1Hz. Pero la verdad fue hace mucho, me imagino que ahora como bien explicas ha cambiado, porque tendrán mejores programas de análisis, simulación,...

Salu2

c

#9 Hi,
si, puede ser. No conozco ningún caso pero no me sorprendería que en la época de la guerra de los MHz entre AMD e Intel algún directivo presionara para tener 1 Hz más que los otros y poder anunciar que son los más rápidos y se usara el método que dices. Simplemente el comentario era por tres motivos: comentar que la caza del fallo es bastante complicado, hablar sobre chips que no son los típicos microprocesadores de PC y hacer un poco de divulgación como el autor del artículo y comentar el proceso habitual de test.
Por cierto, los programas actuales, por ejemplo los de Mentor, Synopsys o Cadence son una pasada, por eso valen lo que valen...

D

#10 Cadence suele tener versiones gratuitas muy majas.

Azucena1980

Yo echo de menos tanto a Chip como a Chop, las amantes de@sacreew