Aujourdâhui plutĂŽt quâun des habituels tutoriels et autres articles dâactualitĂ©s habituellement publiĂ©s ici, je vous propose plutĂŽt une rĂ©flexion, une analyse sur le sujet suivant : La loi de Moore est mourante, le progrĂšs de la puissance informatique touche Ă sa fin et le Raspberry Pi Zero 2 W en est une illustration.
Cet article est donc davantage un article de fond, une explication et une analyse des limites auxquelles semble devoir se confronter lâindustrie Ă©lectronique. Bien que ne nĂ©cessitant pas de connaissances techniques, scientifiques ou Ă©conomiques, il demande nĂ©anmoins probablement un peu plus dâattention que les articles habituellement publiĂ©s ici.
Dans cet article, je commencerai donc par revenir sur le nouveau produit lancĂ© par la fondation, le Raspberry Pi Zero 2 W et sur ses Ă©volutions vis Ă vis du modĂšle prĂ©cĂ©dent. Par la suite, je chercherai Ă dresser un modĂšle et Ă proposer un cadre de rĂ©fĂ©rence offrant des aspects similaires, afin de permettre dâanalyser et de thĂ©oriser les difficultĂ©s, les raisons et les enjeux de ces amĂ©liorations. Ă partir de ce modĂšle et de ce cadre de rĂ©fĂ©rence, je mâattacherai Ă analyser les techniques mises en Ćuvre pour apporter ces amĂ©liorations, et ce que ces techniques nous disent de lâĂ©tat dâavancement du Raspberry Pi. Enfin, je conclurai cet article en commençant par montrer comment les propos dĂ©veloppĂ©s pour le cas particulier du Raspberry Pi peuvent ĂȘtre Ă©largis au reste de lâindustrie Ă©lectronique, avant dâoffrir des pistes de rĂ©flexions sur ce vers quoi semble tendre le futur de cette industrie, pour terminer en interrogeant les dĂ©cisions que nous pourrions alors ĂȘtres amenĂ©s Ă prendre.
Mais avant de rentrer dans lâanalyse et la thĂ©orie, et Ă des fins de contexte, revenons dans un premier temps sur le nouveau modĂšle de Raspberry Pi qui servira dâexemple concret tout au long de cet article.
Le Raspberry Pi Zero 2 W, quâest-ce et quâest-ce qui change ?
Le Raspberry Pi est un micro-ordinateur de la taille dâune carte bleu, qui est bien connu des amateurs dâinformatique. Historiquement, la gamme « Zero » du Raspberry Pi correspond Ă des machines plus petites, consommant moins dâĂ©lectricitĂ©, et vendues Ă un prix plus bas (5⏠ou 10âŹ) que les autres modĂšles de Raspberry Pi. Cette gamme est donc naturellement considĂ©rĂ©e comme Ă©tant destinĂ©e Ă lâinformatique embarquĂ©e, Ă la domotique, Ă lâIoT et de façon plus gĂ©nĂ©rale aux applications nĂ©cessitant peu de puissance de calcul et une consommation Ă©lectrique ainsi quâun espace physique rĂ©duits.
Le 18 Octobre 2021, la fondation Raspberry Pi a annoncĂ© le lancement dâun nouveau modĂšle, le Raspberry Pi Zero 2 W , une Ă©volution du Raspberry Pi Zero W .
VIDEO
Nouveau modĂšle, nouveau processeur, mĂȘme mĂ©moire viveâŠ
Avec ce nouveau modĂšle, la fondation affiche la volontĂ© dâamĂ©liorer la puissance de sa gamme dĂ©diĂ©e Ă lâembarquĂ©e, sans offrir de nouvelles fonctionnalitĂ©s. Il sâagit donc de permettre Ă ses ordinateurs mono-carte dâentrĂ©e de gamme de gagner en puissance, sans pour autant modifier la cible technique et commerciale du produit.
Cette stratĂ©gie est classique et correspond globalement Ă lâĂ©volution naturelle dâun produit issu de lâindustrie informatique dont la forme est dĂ©jĂ ancrĂ©e et aboutie. On est donc dans le cadre dâune Ă©volution, comme le passage des disques dur 512 Go Ă 1 To, par opposition Ă une rĂ©volution, comme le passage des disques dur Ă plateau aux disques SSD.
La principale nouveautĂ© avec ce modĂšle est lâarrivĂ©e, Ă la place de lâancien processeur monocĆur Ă architecture ARM11, dâun processeur quad-core Ă architecture ARM53, basĂ© sur lâarchitecture du Raspberry Pi 4 et le processeur du Raspberry Pi 3.
Si ce nouveau processeur quad-core devrait offrir des gains importants en matiĂšre de puissance de calcul et donc de performances (la fondation annonce une multiplication par 5 des performances pour les applications multi-thread), on ne pourra sâempĂȘcher de remarquer que la mĂ©moire vive, elle, nâa pas Ă©tĂ© revue Ă la hausse, ce qui est pourtant la norme avec ce type dâĂ©volution.
Cette stagnation de la RAM nâa pas manquĂ© dâinterroger les consommateurs et les observateurs mĂ©diatiques mais, vous allez le voir, elle nâa rien dâun hasard et semble pointer une sorte dâimpasse vers laquelle se dirige doucement la fondation Raspberry Pi, comme le reste de lâindustrie.
Prix, Encombrement, Puissance, une question dâĂ©quilibre.
Avec un nouveau modĂšle clairement axĂ© sur la puissance plutĂŽt que sur les nouvelles fonctionnalitĂ©s, beaucoup se demandent pourquoi la fondation a choisi de nâintĂ©grer « que » 512 Mo de RAM sur le Pi Zero 2 W. En fait, il y a fort Ă parier que la fondation nâa pas tellement eu le choixâŠ
DâaprĂšs lâarticle de blog accompagnant la sortie de ce nouveau modĂšle, augmenter la puissance du Pi ZĂ©ro semble en effet avoir Ă©tĂ© des plus compliquĂ©s. En cause ? Une sorte dâĂ©quivalent Ă©lectronique de la crise du logement de nos grandes villes : plus il y a de monde, moins il y a de place et moins il y a de place, plus câest cherâŠ
En 1982 dĂ©jĂ , puis en 2010 avec sa suite, le film Tron reprĂ©sente lâintĂ©rieur dâun ordinateur et dâun programme informatique comme une ville, ancrant cette image dans lâinconscient collectif. Un concept qui peut Ă©galement ĂȘtre retrouvĂ© en partie au sein du livre « Snow Crash », en français « Le samouraĂŻ virtuel », Ă lâorigine de la notion de mĂ©tavers dont on entend beaucoup parler en ce moment.
Petite modĂ©lisation simplifiĂ©e de la thĂ©orie de lâencombrement Ă lâusage de lâindustrie Ă©lectronique.
Un ordinateur mono-carte comme le Raspberry Pi, câest plein de composants Ă©lectroniques, reliĂ©s entre eux sur un seul circuit imprimĂ©.
Si nous faisons abstraction des principes de fonctionnement interne, nous pouvons considĂ©rer quâun composant offre un service dans une certaine quantitĂ© (vitesse de calcul, capacitĂ© de stockage, type de connectique et vitesse de transfert). Appelons cela de la « Puissance » .
Pour fournir cette puissance , le composant va imposer 3 contraintes, que lâon pourrait aussi modĂ©liser comme lâutilisation dâun stock de ressources : il consomme de lâĂ©nergie ; il prend de la place ; il doit ĂȘtre reliĂ© aux autres composants. Appelons lâensemble de ces contraintes « Encombrement » , une notion qui peut ĂȘtre Ă rapprocher de celle abordĂ©e au sein de la thĂ©orie de lâencombrement .
Dans les faits de nombreuses autres contraintes peuvent ĂȘtre associĂ©es aux composants, comme des plages de tensions Ă©lectriques, une sensibilitĂ© Ă©lectromagnĂ©tique, une plage de tempĂ©ratures dâutilisation, une vitesse de fonctionnement, une Ă©mission de chaleur, etc. Mais pour faire un modĂšle, câest-Ă -dire une reprĂ©sentation approximative mais suffisamment bonne de la rĂ©alitĂ© pour nous permettre de la manipuler et de lâanalyser dans un cadre donnĂ©, nous pouvons nous limiter Ă ces 3 contraintes. Les autres contraintes pouvant souvent ĂȘtre reprĂ©sentĂ©es par ces 3 contraintes de base, comme lâĂ©mission de chaleur qui se traduit classiquement sous forme de contraintes de consommation dâĂ©nergie et de place.
Enfin, un composant va avoir un coĂ»t monĂ©taire, un prix, que nous appellerons donc avec beaucoup dâimagination« Prix » .
Je pense que vous lâaurez vu venir, il y existe un rapport direct entre Puissance , Encombrement et Prix . Pour simplifier, on pourrait modĂ©liser ce rapport sous la forme Prix = Puissance / Encombrement . Ou pour lâexprimer dâune façon plus comprĂ©hensible encore : plus la puissance augmente pour le mĂȘme encombrement , plus câest cher.
Ă puissance Ă©gale, en payant un composant plus cher, il est souvent possible de diminuer son encombrement , et Ă lâinverse, en utilisant un composant plus encombrant, il est possible de le payer moins cher.
Comme on sature une ville, on sature un ordinateur.
Si nous prenons une ville, chacun sait quâelle ne peut Ă©tendre sa taille Ă lâinfini, a minima parce que le territoire dont nous disposons nâest pas infini. Chacun sait aussi que plus une ville offre de potentiel Ă©conomique, culturel, etc., plus elle est considĂ©rĂ©e comme attractive, et plus nombreux sont les gens Ă vouloir y vivre. Il en rĂ©sulte habituellement quâune fois la taille maximale de la ville atteinte, par lâeffet de contraintes de nature gĂ©ographiques, historiques, politiques ou tout simplement structurelles (rĂ©seaux de transports, temps de trajets, etc.), celle-ci se met Ă transformer et optimiser son habitat.
ConcrĂštement, cela se traduit habituellement de la façon suivante, le nombre des logements augmente tandis que leurs surfaces individuelles diminuent, et que le prix pour une mĂȘme surface grimpe. Ou, dit plus simplement, chacun sait quâon loue ou que lâon achĂšte Ă Paris un appartement de 9m2 le prix dâune maison de 150m2 dans la Creuse.
Mais chacun sait aussi que cette optimisation atteint naturellement une limite, laquelle est habituellement imposĂ©e par lâespace minimal nĂ©cessaire Ă un habitat â que cet espace soit fixĂ© par la loi ou simplement dĂ©rivĂ© de contraintes physiques et dâhabitabilitĂ© â, par lâexclusion de la partie de la population constituĂ©e des classes sociales ne pouvant plus payer le prix des logements, par la saturation des rĂ©seaux de transports, ou plus gĂ©nĂ©ralement par un mĂ©lange des trois, la ville Ă©tant alors qualifiĂ©e en français de « Capitale ».
Câest que, de mĂȘme quâil nâexiste pas de croissance infinie, il nâexiste pas non plus de diminution infinie, et comme il en va des villes, il en va des ordinateurs.
Un ordinateur mono-carte nâest pas si diffĂ©rent dâune ville. Lui aussi ne peut pas sâĂ©tendre Ă lâinfini, Ă©tant limitĂ© par les dimensions du circuit imprimĂ© porteur. Lui aussi dispose dâun Ă©quivalent aux logements, commerces et habitants, les composants Ă©lectroniques, qui, comme leurs Ă©quivalents urbains, consomment tous un peu dâencombrement . Lui aussi doit avoir un rĂ©seau de transport, les pistes de cuivre. Et lâon pourrait encore trouver dâautres comparaisons, comme le traitement des eaux usĂ©es dâune ville, qui semble trouver un reflet dans la question de la dissipation thermique des composants Ă©lectroniques.
Ville ou carte mĂšre ?
Vous vous en doutez, le chemin suivi par un ordinateur ressemble, lui aussi, Ă celui dâune ville : lâoptimisation de lâhabitat. De mĂȘme que se rĂ©duit la taille des appartements, se rĂ©duit la taille des composants. Et comme augmente le prix au mĂštre carrĂ© des appartements Ă mesure que leur surface diminue, augmente le prix des composants Ă puissance Ă©gale, Ă mesure que lâencombrement diminue.
LĂ aussi existe, comme pour celle des habitats, une limite Ă lâoptimisation des composants. De mĂȘme quâun habitant ne peut pas vivre dans un appartement plus petit que lui, certains composants nĂ©cessitent un espace minimal (par exemple pour dissiper la chaleur Ă©mise). Dâune façon similaire Ă celle par laquelle les rĂ©seaux de transports finissent par ĂȘtre saturĂ©s, on en arrive Ă ne plus avoir la place de relier des composants. Et comme lâaugmentation des prix finit par rendre lâhabitation inaccessible au plus grand nombre, lâaugmentation des coĂ»ts des composants les plus performants empĂȘche leur utilisation standard.
Et le Raspberry Pi dans tout ça ?
Vous lâaurez compris, toute la difficultĂ© pour la fondation Raspberry Pi est donc de trouver lâĂ©quilibre entre lâencombrement du Raspberry Pi Zero 2 W (sa taille, sa consommation Ă©lectrique, etc.), sont prix et sa puissance .
Aujourdâhui cet Ă©quilibre est Ă sa limite, et la fondation ne peut pas ajouter plus de RAM, principalement parce que la rĂ©serve dâencombrement disponible sur un Pi Zero, et notamment sa composante dâespace physique, est dĂ©jĂ presque totalement Ă©puisĂ©e.
Le stock dâencombrement du Raspberry Pi Zero est fixe, il ne peut pas changer. Les dimensions de la carte doivent rester les mĂȘmes, le nombre de couches de cuivre est limitĂ© pour des raisons Ă©conomiques, la consommation Ă©lectrique ne peut pas, ou Ă peine, augmenter.
Pour augmenter la puissance , la seule solution semble alors ĂȘtre une augmentation du prix . Câest dâailleurs en partie ce que la fondation a fait, puisque ce nouveau modĂšle coĂ»te 5⏠de plus que le prĂ©cĂ©dent, soit une augmentation de tout de mĂȘme 50 %âŠ
Mais lĂ encore, lâaugmentation du prix nâest pas une solution magique. Dâabord parce quâil faut que le produit reste achetable par une masse suffisante dâutilisateurs. Ensuite parce que, lâaugmentation du prix est une consĂ©quence, et non une cause, de la diminution de lâencombrement , laquelle, nous lâavons vu, ne saurait ĂȘtre illimitĂ©e.
La solution Ă cette crise du logement Ă©lectronique ? Une sortie par le haut, pour le momentâŠ
La situation de saturation que nous avons dĂ©crite nâest pas une nouveautĂ© apparue avec la Raspberry Pi Zero 2 W, mais elle existait dĂ©jĂ depuis le premier modĂšle du Raspberry Pi Zero. Mais alors, avec un encombrement saturĂ© et un prix encadrĂ©, comment la fondation a-t-elle pu augmenter la puissance du Pi Zero ?
En matiĂšre technologique, quand ce qui Ă©tait impossible devient possible, une fois le mensonge Ă©hontĂ© mis de cotĂ©, il ne reste que lâinnovation technologique. Reprenons notre comparaison immobiliĂšre.
Tout un chacun lâaura observĂ©, quand une ville ne peut plus optimiser la taille de ses logements, et que sâĂ©tendre sur le territoire devient impossible, celle-ci se met alors Ă dĂ©couvrir la troisiĂšme dimension et commence Ă se dĂ©velopper verticalement.
Chicago est un bon exemple de ville que des limites géographiques fortes (le lac Michigan) ont poussé au développement vertical.
Ce développement à la verticale peut se faire dans deux sens, soit en creusant, soit en construisant des bùtiments plus hauts.
MĂȘme si des villes souterraines existent , et que les souplex semblent fleurir partout oĂč cela est possible, creuser reste une solution rarement retenue pour la constructions de bĂątiments, et est plutĂŽt utilisĂ©e pour les rĂ©seaux de transports. Une situation, nous le verrons, lĂ encore assez similaire avec celle des circuits imprimĂ©s.
Augmenter la hauteur des bĂątiments reste donc la solution privilĂ©giĂ©e la trĂšs vaste majoritĂ© du temps. Cette solution relĂšve du point de vue architecturale dâune innovation technique, et elle connaĂźt bien Ă©videmment des limites, quâil sâagisse de limites techniques, physiques, logistiques ou tout simplement de coĂ»ts. Et comme toute innovation technique, elle devient plus accessible techniquement et Ă©conomiquement avec le temps, ce qui participe Ă augmenter son utilisation et sa rentabilitĂ©.
Si nous revenons au secteur informatique, la solution retenue par la fondation, et par lâindustrie en gĂ©nĂ©ral, est sans surprise la mĂȘme, investir la verticale, et lĂ aussi deux solutions sont possibles, creuser ou empiler.
Exploiter lâespace souterrain des circuits imprimĂ©s.
Dans le cadre de lâinformatique, bĂątir en sous-terrain prend deux formes bien distinctes. Puisque les circuits imprimĂ©s sont classiquement des plaques dâenviron un millimĂštre dâĂ©paisseur, constituĂ©es habituellement de rĂ©sine Ă©poxy isolante et dâune ou plusieurs couches de cuivre conducteur, ces plaques sont susceptibles de prĂ©senter deux faces accessibles pouvant recevoir des composants Ă©lectroniques, la face supĂ©rieure et la face infĂ©rieure.
Sur cette coupe dâun circuit imprimĂ© on distingue 4 couches de cuivre, un chiffre qui peut ĂȘtre considĂ©rĂ© comme relativement standard aujourdâhui.
Creuser peut alors, en premier lieu, ĂȘtre le fait dâutiliser la face infĂ©rieure du circuit en plus de la face supĂ©rieure pour souder des composants. On parle alors de circuit « double-sided » ou double-face en français. Câest une solution qui augmente sensiblement lâespace disponible, en allant au maximum jusquâĂ le doubler, mais qui ne permet en revanche pas, ou pas totalement, de rĂ©pondre Ă dâautres aspect de lâencombrement , comme la consommation Ă©lectrique. Bien-sĂ»r, rĂ©aliser un circuit double face implique des opĂ©rations dâassemblage plus complexes que dâutiliser un simple face, ce qui augmente mĂ©caniquement le coĂ»t du circuit.
Mais creuser peut aussi sâapparenter, comme pour une ville, Ă rĂ©partir le rĂ©seau de transport, ici les pistes de cuivre sur plusieurs niveaux. Câest lĂ la principale utilisation du dĂ©veloppement « sous-terrain » des circuits imprimĂ©s. Pour cela, plusieurs couches de cuivre sont empilĂ©es et sĂ©parĂ©es par des couches dâisolant, puis reliĂ©es entre elles aux endroits nĂ©cessaires par la rĂ©alisation de trous, nommĂ©s « vias », qui seront ensuite rendus conducteurs par le dĂ©pĂŽt dâune couche de cuivre.
Illustration dâun circuit imprimĂ© Ă 6 couches, reliĂ©es entre elles par diffĂ©rents type de vias. Source : altium.com
Câest que le problĂšme du branchement des composants entre eux se heurte Ă deux principales difficultĂ©s, la rĂ©sistance Ă©lectrique des pistes de cuivre et leurs croisements.
Le problĂšme de la rĂ©sistance, câest que le cuivre nâest pas un conducteur parfait, et lâĂ©lectricitĂ© en passant fait chauffer le cuivre. Pour diminuer cet effet, il est nĂ©cessaire de raccourcir les pistes, et dâaugmenter leur largeur. Mais plus le nombre de composants est grand, plus il devient difficile de trouver des pistes courtes pour les relier, et plus les pistes sont larges, moins on peut en mettre dans un espace donnĂ©. En augmentant le nombre de couches, on simplifie leur tracĂ© et on augmente la surface totale de cuivre disponible.
Le problĂšme des croisements, câest quâil nâest pas possible sur une seule couche de cuivre en deux dimensions de faire se croiser des routes, celles-ci Ă©tant conductrices. Il devient alors nĂ©cessaire dâintroduire une troisiĂšme dimension par lâajout dâune ou plusieurs couches de cuivre. Plus il y aura de couches de cuivre, plus il sera simple de faire se chevaucher des routes, notamment en dĂ©diant certaines couches Ă un type particulier de signal Ă©lectrique. Ăvidemment, plus les couches sont nombreuses, plus le circuit est complexe Ă produire et donc cher.
Aujourdâhui il nây a plus guĂšre que les PCB produits par des particuliers pour nâutiliser quâune seule couche de cuivre. Lâindustrie quant Ă elle utilise au minimum 2 couches de cuivre, et jusquâĂ 6 dans des usages grand public. Les produits issus de la haute industrie peuvent mĂȘme, dans des cas extrĂȘmes, recourir Ă une centaine de couches.
Aujourdâhui, la famille des Raspberry Pi Zero exploite dĂ©jĂ largement la rĂ©partition verticale du routage, avec un PCB qui semble contenir 6 couches de cuivre.
En revanche, les Raspberry Pi Zero nâutilisent quâune seule face du circuit imprimĂ© pour monter des composants. De cette façon, la chaĂźne de production est simplifiĂ©e, presque entiĂšrement automatisĂ©e et ne nĂ©cessite pas lâĂ©tape plus complexe de retournement du circuit. Câest pour cette raison que les pins GPIO du Raspberry Pi ne sont pas livrĂ©s soudĂ©s.
Une solution pour permettre lâajout de plus de RAM serait donc dâajouter ou de dĂ©placer des composants existants sur la face infĂ©rieure du Raspberry Pi Zero, pour libĂ©rer lâespace nĂ©cessaire Ă une puce de RAM supplĂ©mentaire. Cependant une telle modification impliquerait un changement du form-factor du Raspberry Pi Zero, susceptible dâintroduire des incompatibilitĂ©s avec certains matĂ©riels physiques, ainsi quâune augmentation du coĂ»t de production.
Pour lâinstant la fondation semble donc avoir rejetĂ© lâidĂ©e de modifier le form-factor du Pi Zero et de passer Ă un format double-sided . Ă lâavenir â et sauf Ă©volution technologique majeure ou diminution drastique du coĂ»t de la RAM sur certaines solutions technologiques actuelles â cette solution risque pourtant de sâavĂ©rer la seule possible si la fondation veut augmenter la mĂ©moire vive de sa machine.
Construire des gratte-ciels de composants Ă©lectroniques.
Puisquâil nâest pas possible dâaugmenter la capacitĂ© dâencombrement par le dessous, il ne reste alors quâune solution Ă la fondation, gagner de la place par le haut en empilant les Ă©tages de composants.
Figurez-vous que câest dĂ©jĂ ce que font les versions prĂ©cĂ©dentes de la Raspberry Pi Zero et de la Raspberry Pi 1, en utilisant une technologie appelĂ©e Package On Package , ou PoP. Comme son nom lâindique, cette technologie consiste Ă empiler un composant (package dĂ©signe le composant, soit lâensemble de la puce de silicium et du boĂźtier permettant son isolation et sa connexion), sur un autre composant. Câest une technologie relativement rĂ©cente, puisquâelle nâest utilisĂ©e dans un produit industriel que depuis 2004 avec la PSP de Sony (devinez dans lâusine de qui sont produites les Raspberry Pi), et qui nâa vraiment connu une utilisation massive quâavec lâavĂšnement des smartphones, nĂ©cessitant une mĂ©moire vive importante dans un volume rĂ©duit.
JusquâĂ prĂ©sent, câest grĂące Ă la technologie PoP que la fondation pouvait intĂ©grer la puce de mĂ©moire vive au dessus de son processeur dans les Raspberry Pi Zero, permettant ainsi de crĂ©er la carte avec les dimensions que nous lui connaissons.
jusquâĂ prĂ©sent, la technologie PoP Ă©tait utilisĂ©e pour permettre dâempiler la RAM par-dessus du processeur.
Cependant, comme vous pouvez le constater sur le schĂ©ma ci-dessus, lâutilisation de la technologie PoP implique que le composant infĂ©rieur soit suffisamment fin et petit pour pouvoir ĂȘtre placĂ© entre les billes de soudure reliant le composant supĂ©rieur et le PCB servant de support. Et il se trouve que la fondation nâest pas la seule qui cherche Ă amĂ©liorer le rapport puissance / encombrement en passant Ă la verticale. Broadcom, le fabricant des System On Chip fournissant notamment le processeur de la Raspberry Pi fait de mĂȘme, et avec son nouveau processeur, le System On Chip du Raspberry Pi Zero 2 W nâest plus suffisamment fin pour permettre le PoP.
Pour permettre le passage au nouveau processeur tout en conservant la mĂȘme mĂ©moire vive, la fondation a donc dĂ» utiliser un autre procĂ©dĂ©, le System In Package , ou SiP, qui consiste Ă superposer deux puces de silicium au sein dâun mĂȘme boĂźtier, il sâagit lĂ encore dâune technique assez rĂ©cente et qui ne semble rĂ©ellement utilisĂ©e par lâindustrie que depuis quelques annĂ©es.
Ici les deux « die », câest-Ă -dire les puces de silicium nues sont directement empilĂ©es avec un film isolant entre les deux.
Cependant, comme PoP, la technologie SiP a elle aussi ses limites, la plus importante étant la nécessiter de créer une puce dédiée.
En effet, lĂ ou la technologie PoP exploite des composants prĂ©-existants en les empilant sur un substrat qui nâest jamais quâun mini-PCB trĂšs fin, rendant cette solution relativement accessible. La technologie SiP, elle, nĂ©cessite la crĂ©ation dâun nouveau composant dĂ©diĂ© et fabriquĂ© sur mesure, une opĂ©ration beaucoup plus complexe, rĂ©alisable uniquement par quelques entreprises de pointe. Cette technologie est donc plus coĂ»teuse, moins souple, implique un prototypage nettement plus compliquĂ© et est, par nature, rĂ©servĂ©e Ă des entreprises disposant de volumes de commande importants et de liens privilĂ©giĂ©s avec des entreprises majeures des semi-conducteurs, comme câest Ă©videmment le cas de la fondation avec son partenaire BroadcomâŠ
Mais mĂȘme si la technologie SiP a pu repousser certaines limites, lĂ encore il nâexiste pas de croissance infinie. Comme il nâest pas possible de faire des immeubles de 2 000 Ă©tages, il nâest pas possible dâempiler une infinitĂ© de puces de silicium. Sans mĂȘme parler de lâĂ©paisseur quâauraient les composants, lâoccupation dâespace physique nâest quâune des composantes de lâencombrement , la quantitĂ© dâĂ©lectricitĂ© consommĂ©e, lâĂ©mission de chaleur, le nombre de connexions sont autant de limites qui finissent toutes, tĂŽt ou tard, par devenir insurmontables que ce soit pour des raisons de coĂ»ts ou des raisons physiques.
La fondation lâa dâores et dĂ©jĂ dit, actuellement un modĂšle du Raspberry Pi Zero qui respecte le mĂȘme form-factor et qui embarque plus de mĂ©moire RAM semble exclu. Les puces de silicium nues de plus de 512 Mo de RAM nâexistent pas, et empiler davantage de puces est aujourdâhui technologiquement trop compliquĂ© et coĂ»teux.
La dissipation thermique est Ă©galement un problĂšme. La fondation a pu, par lâajout de pistes de cuivre, amĂ©liorer la dissipation thermique afin de permettre dâĂ©vacuer la chaleur supplĂ©mentaire gĂ©nĂ©rĂ©e par le nouveau processeur, mais lĂ encore, cette solution touche Ă ses limites.
Le Raspberry Pi Zero 2 W dans sa forme actuelle semble arriver aux limites de la puissance atteignable Ă ce prix et dans cette forme.
Pour augmenter sa puissance il faudra donc augmenter son prix ou son encombrement (consommer plus dâĂ©lectricitĂ©, augmenter la taille du produit, etc.). Ou bien aller chercher les amĂ©liorations et la plus-value ailleurs, dans la rĂ©duction de la consommation Ă©lectrique, dans la spĂ©cialisation via le retrait de fonctionnalitĂ©s au profit dâautres, etc.
Ce quâil est important de comprendre, câest que le Raspberry Pi Zero, loin dâĂȘtre une exception, un cas particulier, est en fait lâillustration de la situation dans laquelle se trouve lâindustrie de lâĂ©lectronique des semi-conducteurs toute entiĂšre.
La croissance infinie nâexistant pas, bientĂŽt la loi de Moore prendra fin.
Toute personne sâĂ©tant intĂ©ressĂ© Ă lâinformatique connaĂźt normalement la « loi de Moore » , loi empirique formulĂ©e en 1965 par Gordon Earle Moore (lequel devait devenir 3 ans plus tard co-fondateur dâIntel), et qui voudrait que la puissance des processeurs double tous les ans ou tous les deux ans Ă coĂ»t comparable .
Si cette loi sâest jusquâĂ aujourdâhui montrĂ©e assez juste, câest en partie parce que lâindustrie sây est accrochĂ©e avec une tĂ©nacitĂ© forçant lâadmiration, nâhĂ©sitant pas Ă consentir dâĂ©normes investissements dans la recherche pour maintenir le rythme, effort Ă©conomique qui nâa pu ĂȘtre consenti que parce que supportĂ© financiĂšrement par lâaugmentation constante et effrĂ©nĂ©e de lâinformatisation de nos sociĂ©tĂ©s. Et en partie parce que lâindustrie et la presse ont souvent, par idĂ©ologie, intĂ©rĂȘt ou simple mĂ©connaissance, pris soin dâoublier la notion de « coĂ»t comparable ».
Pourtant et depuis quelques annĂ©es dĂ©jĂ , un ralentissement se fait sentir, et le discours des constructeurs change, sâorientant moins sur la puissance et davantage vers une diminution de la consommation Ă©lectrique, lâamĂ©lioration des performances par la spĂ©cialisation des circuits imprimĂ©s pour des tĂąches prĂ©cises (intelligence artificielle, traitements graphiques, etc.), ou vers des bonds technologiques, comme lâinformatique quantique.
Courbe illustrant lâĂ©volution des semi-conducteurs depuis 1970. Si la courbe du nombre de transistors par puce continue de suivre la loi de Moore jusquâen 2015 (tendance qui tend dĂ©sormais Ă disparaĂźtre), on observe en revanche clairement que les gains de performance thermique et de vitesse dâhorloge diminuent depuis 2005 en allant vers une stagnation aux alentours de 2015. SimultanĂ©ment le nombre de transistors par dollar suit une courbe plus lente avant de totalement stagner voir de rĂ©gresser Ă partir de 2012.
Il semblerait que nous nous approchions chaque jour un peu plus des limites physiques de cette croissance, et que sa fin soit imminente. Depuis 2010 le progrĂšs des micro-processeurs semble ralentir Ă lâĂ©chelle de toute lâindustrie, les frĂ©quences des processeurs semblent bloquĂ©es depuis 2015 par lâapparition dâeffets quantiques, la finesse de gravure se dirige dans la mĂȘme direction, et la « International Technology Roadmap for Semiconductors », qui avait jusque lĂ guidĂ© lâindustrie en se basant trĂšs largement sur la loi de Moore a Ă©mis sa derniĂšre feuille de route en 2016, appelant Ă sâen dĂ©tacher.
Nous ne respections dĂ©jĂ plus la loi de Moore en en ignorant la notion de coĂ»t, bientĂŽt nous ne la respecterons plus tout court. En fait, dâaprĂšs de nombreux prĂ©visionnistes, dont Moore lui mĂȘme, la « loi de Moore » devrait prendre fin aux alentours de 2025 .
Sans surprise, comme nos villes ont, en dernier recours, extrait Ă la verticale les derniers mĂštres carrĂ©s utilisables. De mĂȘme les constructeurs de semi-conducteurs ne pouvant plus miniaturiser, arrachent-ils dĂ©sormais, et dĂ©jĂ depuis quelques temps, les derniĂšres amĂ©liorations de performances par la crĂ©ation de puces de silicium en trois dimensions . HĂ©las, une fois la verticale totalement conquise, il nây aura plus dâautres dimensions physiques accessiblesâŠ
Nos villes semblent dĂ©sormais ĂȘtres saturĂ©es et ne pas pouvoir accueillir plus de population, amenant nos sociĂ©tĂ©s Ă remettre en cause un modĂšle dâultra-urbanisation qui les a longtemps guidĂ©es et Ă repenser notre rapport au territoire, au travail, au transport.
En cela, comme en tout le reste, il me semble y avoir fort Ă parier que lâindustrie des semi-conducteurs et Ă travers elle toute lâindustrie informatique, suive le modĂšle de nos villes. BientĂŽt, nous aurons tirĂ© toute la puissance brute que nous pouvions espĂ©rer extraire dâun morceau de silicium. Pour la premiĂšre fois depuis 1965, lâĂ©volution des vitesses de calcul ne sera plus dĂ©pendante dâune Ă©volution si ce nâest prĂ©dictible, au moins estimable, mais dâune rĂ©volution technologique qui pourrait ne jamais venir.
Il va alors nous falloir repenser notre rapport Ă la puissance de calcul et Ă son optimisation, comme nous repensons notre rapport au territoire et Ă la centralisation. Nous allons devoir optimiser dâautres aspects de lâencombrement trop longtemps nĂ©gligĂ©s, comme la consommation Ă©lectrique, la dissipation voir la rĂ©utilisation de la chaleur. Nous devrons optimiser la fabrication pour diminuer les coĂ»ts et la consommation de ressources afin de rĂ©duire les prix.
Ou alors, simplement, nous satisfaire de notre puissance de calcul disponible, aprĂšs tout, peut-ĂȘtre dĂ©jĂ suffisante. Accepter que nous nâavons pas nĂ©cessairement besoin de calculer plus, de partager plus, de surveiller plus, de prĂ©dire toujours et toujours plus, toujours plus vite. Accepter que toute limite nâappelle pas, forcĂ©ment, Ă ĂȘtre dĂ©passĂ©e. Que parfois, sâarrĂȘter est non seulement nĂ©cessaire, mais souhaitable, profitable, raisonnable.
Il nây a pas de miniaturisation infinie, pas plus quâil nây a de croissance infinie. En un monde fini, seuls les fous et les Ă©conomistes peuvent croire en de telles choses.
Lire l'article complet : La miniaturisation infinie nâexiste pas, ou pourquoi lâinformatique atteindra bientĂŽt ses limites.