Le Vector Reducing Machine effettuano operazioni matriciali su vettori e matrici, le matrici non eseguono alcunché. C’è una circuiteria apposta nelle GPU per operare su matrici, seguendo le *istruzioni* fornite tramite la libreria CUDA; se le matrici eseguissero, potresti fare a meno delle GPU e di CUDA.
Infatti si può fare a meno delle GPU e di CUDA ... se si ha tanto tempo a disposizione. GPU è solo un acceleratore computazionale. Calcoli eseguiti decine, centinaia di volte più velocemente di una CPU. Che a sua volta li esegue migliaia di volte più veloce di un apparato a transistor, prima meccanico ... fino alla prima macchina in grado di eseguire moltiplicazioni, e siamo nel 1671 con Leibniz. Nell'informatica "classica" sui dati si opera, nell'informatica dell'AI i dati si eseguono (perché sottoposti a priori ad un processo "classico" che, *operando sui dati*, ha creato un "semilavorato" eseguibile (attenzione, eseguibile non nel senso che ha per i programmatori). Un paio di esempi. Un software che legge file audio. Il programma contiene le istruzioni. I dati, la musica digitalizzata. Il programma opera sui dati, legge i dati digitalizzati e li trasforma in onde sonore. Stessa cosa avviene con le immagini, i video, ecc. Se i dati hanno un byte errato, nel 99% dei casi non succede nulla di particolarmente grave. Un puntino in uno schermo, un millesimo di secondo di audio perso, ecc. Se i dati contenenti i pesi hanno byte errati in alcune posizioni non funziona nulla. Magari il termine "eseguibile" non è quello esatto, ma di sicuro c'è che i dati AI hanno importanza tale da costituire un cambiamento di paradigma. A.