July 25, 2023
5:58 p.m.
La stima di 10^23 FLOPS, come qualcuno ha capito, รจ il conto totale dei FLOPS necessari per allenare GPT-3.
trovato :) Qui (pag.6) spiega tutto: https://arxiv.org/pdf/2104.10350.pdf N.processori: 10000 Tipo processore: NVIDIA V100 Consumo singolo: 300W Performance singola media: 24,6 TFLOPS/s Training time: 14,8 giorni Totale potenza di calcolo: 3.14E+23 FLOPS (= 10000 * 24,6 * 86400 * 14,8) Totale consumo: 1287 MWh Antonio