2018-11-07 09:19:44 +0000 2018-11-07 09:19:44 +0000
1
1
Advertisement

Pourquoi la modélisation de la médecine est-elle distribuée sur les ordinateurs des personnes ordinaires ?

Advertisement

Il existe sur Internet des projets de calcul distribué qui tentent de trouver des remèdes aux maladies, comme World Community Grid . Quelqu'un pourrait-il dire pourquoi de tels projets existent et quelle est leur utilité ? Je veux dire, je pense que si vous êtes un chercheur sérieux, vous pouvez utiliser les réseaux ou les superordinateurs de l'université pour faire de la modélisation. Alors, quelle est l'idée d'étendre la modélisation aux ordinateurs ordinaires ? La modélisation de la médecine nécessite-t-elle une telle puissance informatique que les ordinateurs des universités n'en ont pas assez ?

Advertisement
Advertisement

Réponses (1)

3
3
3
2018-11-07 11:22:05 +0000

Je ne sais pas dans quelle mesure les superordinateurs sont facilement accessibles aux chercheurs et aux universités, mais j'imagine qu'une grande partie de la réponse à votre question est liée au coût. Les performances des ordinateurs sont mesurées en FLOPS (Floating Point Operations Per Second) , et en juin 2018,&nbsp Summit , un supercalculateur construit par IBM et fonctionnant actuellement au Oak Ridge National Laboratory (ORNL) du ministère de l'énergie (DOE), a obtenu la première place pour les performances informatiques les plus rapides à&nbsp ; 122. 3 petaFLOPS sur le LINPACK benchmark où peta est 1015. En comparaison avec les PC domestiques, le processeur le plus rapide possible pour un coût de 2 000 dollars fournit environ 1 teraFLOPS où tera est 1012.

Pour les projets de calcul distribué, voyons Folding@home .

Le projet utilise les ressources de traitement inutilisées des milliers de ordinateurs personnels appartenant à des volontaires qui ont installé le logiciel sur leurs systèmes. Son objectif principal est de déterminer les mécanismes de repliement des protéines, qui est le processus par lequel les protéines atteignent leur structure tridimensionnelle finale, et d'examiner les causes du mauvais repliement des protéines. Il s'agit d'un sujet d'intérêt académique important ayant des implications majeures pour la recherche médicale dans la maladie d'Alzheimer, la maladie de Huntington, et de nombreuses formes de le cancer, entre autres maladies. Dans une moindre mesure, Folding@home tente également de prédire la structure finale d'une protéine et de déterminer comment d'autres molécules peuvent interagir avec elle, ce qui a des applications dans la conception de médicaments. Folding@home est développé et exploité par le Pande Laboratory à Stanford University

[…]

Depuis son lancement en octobre 1, 2000, le Pande Lab a produit 200 documents de recherche scientifique comme résultat direct de Folding@home voir [https://foldingathome. org/papers-results]

Les statistiques fournies par Folding@home à https://stats.foldingathome.org/os indiquent que leur projet fournit une performance totale de 47 344 teraFLOPS natifs ou 98 747 teraFLOPS x86.

Notez que ces valeurs de teraFLOPS proviennent des cœurs logiciels, et non des valeurs de pointe des spécifications CPU/GPU et que ces chiffres ne font que battre la performance de l'entreprise chinoise Sunway TaihuLight en 2016 qui a été classée la plus rapide du monde avec 93 petaFLOPS sur le benchmark LINPACK maintenant le 2ème supercalculateur le plus rapide ).

Coût

IBMs Summit Supercomputer coût de construction 200 millions de dollars et selon Wikipedia, le Sunway TaihuLight a coûté 273 millions de dollars. Si l'on considère que les performances de calcul fournies par Folding@home sont fournies par des bénévoles (le système est donc gratuit), il est évident que la puissance de calcul proposée ne doit pas être refusée.

Advertisement

Questions connexes

3
2
1
2
0
Advertisement