Post by Samuel DEVULDERMoore s'était exprimé dans le cadre des ordis généralistes capables de
tout faire. Or avec les calculs complètement asynchrones, on ne peut pas
tout résoudre. Ca n'est donc plus la loi de Moore mais autre chose, qui
s'adresse à un domaine bien plus restreint du calcul. > Moore c'est bel et bien fini.
arrête d'affirmer ce que les gens de la partie n'affirment pas.
Moore s'est exprimé en 65 sur la complexité des circuits, puis l'a
reformulé en 75 sur le nombre de transistors dans les circuits intégrés.
La 3eme et pseudo version populaire "quelquechose double tous les 18
mois" n'a guere de validité. dixit wikipedia:
« quelque chose » double tous les dix-huit mois, cette chose étant « la
puissance », « la capacité », « la vitesse », « la fréquence d'horloge »
et bien d'autres variantes mais très rarement la densité des transistors
sur une puce. Ces pseudo « lois de Moore » sont celles le plus souvent
diffusées, car elles fleurissent dans des publications grand public et
sur de nombreux sites Internet.
Moore ne suppute aucun modèle de calcul, ni de techno de circuit :
multicouche, multicoeur, peu importe.
A noter qu'il est par contre plus precis sur les conditions: "d'entrée
de gamme, à cout constant" (ce qui peut etre contradictoire, à noter).
Post by Samuel DEVULDERPost by robbyEt sur GPU, on a meme depuis un bail la loi de Moore au cube.
Voilà: c'est ce que je dis. <<un domaine bien plus restreint du
calcul.>> Le calcul des GPU où tous les pixels sont indépendants les uns
des autres sont un domaine très particulier. Dès que tu dois
synchroniser tous les machins parallèles, tu perds un temps fou et la
puissance de calcul effective plafonne à nouveau.
tu as une vision très naïve de l'architecture des circuits modernes,
généralistes ou GPU.
C'est un mix de parallelisme structuré et asynchrone, scalaire et
vectoriel, sans parler des niveaux de cache.
et concernant le GPU, c'est le contraire de ce que tu dis: on exploite a
fond la cohérence locale des calculs via une echelle locale SIMD. mais
dès au dessus, on batch de multiples jobs non-SIMD mais a memoire locale
partagée (tournant sur les memes multiprocesseurs), puis à echelle plus
globale on a encore plus d'asynchronisme, mais avec des caches pour
tamponer tout ça. Et l'architecture locale superscalaire avec
recouvrement maximal des temps d'attente gomme la plus part des defauts
de synchronisme.
A noter que de nos jours les GPU sont largement utilisées pour faire du
calcul généraliste, avec bien plus de puissance que le CPU.
Post by Samuel DEVULDEROn ne peut pas tout calculer en asynchrone.
le monde moderne du calcul ne se découpe plus binairement en synchrone
et asynchrone. c'est bien plus intriqué que ça.
Post by Samuel DEVULDERsauf à faire de la programmation quantique peut-être
on en parlera quand ça existera vraiment :-D
Et pour le coup, ça semble vraiment parti pour n'etre vraiment pas
généraliste.
Post by Samuel DEVULDERQuand je faisais du simplex entier ou du sat-solver, c'étaient des centaines de mégabits
à trouver, et ces bits là étaient fortement corrélés. Impossible d'en
extraire des bouts suffisamment indépendants pour les résoudre en
parallèles.
evidemment. Et simplement transposer une matrice aussi, pour commencer.
Mais Moore n'a rien à voir avec ça.
De même qu'il n'a rien a voir, réciproquement, avec les gains de perfs
dus aux progrès des algorithmes ( ou de la compression, par ex).
--
Fabrice