Premesso che qui non parliamo di figura retorica, la mia risposta e' concentrata sulla percezione e considerazione del rischio.
Pochissimi di noi hanno fatto corsi di guida sicuri (personalmente sia in Pirelli a Vizzola sia in Fiat al Balocco, occupandomi in passato di qualita' dei pneumatici), ma ti assicuro che questi non sono una garanzia per evitare incidenti, solo uno dei fattorI di
riduzione del rischio. Fattore ben piu' importante nella riduzione del rischio e' la conoscenza del contesto, delle strade, traffico in quel momento, del fatto che dietro a quella curva ci sono bambini che giocano, etc. Conoscere il contesto e' ben piu' importante
del corso di guida sicura.
Esattamente allo stesso modo e' la prof, non noi, che conosce il contesto dei suoi studenti e dei rischi a tutto tondo che deve gestire con loro. Quando lei decide di farsi aiutare da ChatGPT a scrivere ai genitori, sa bene che lascia il suo prompt e la lettera
in mano di terzi, ma sa anche che non ha inserito ne l'indirizzo ne i nomi o altri dati indentificativi. Quando fa caricare una riflessione in inglese per vedere come la traduce la macchina, sa che non c'e' nulla di identificativo in quel testo. Piu' in generale,
rispetto a tutti i rischi che vive coi ragazzi, e' lei che correttamente considera quello di mettersi alla guida come accettabile.
E chi ha contribuito a raffinare NIST 800-171 come me, che ho seguito la percezione e gestione del rischio in molteplici ambiti da 30 anni, puo' giudicare la prof come una professionista con la testa sulle spalle. Potrebbe proteggere di piu' i suoi studenti?
Si, e non ne varrebbe la pena.
Come dici giustamente, e' impossibile programmare un software, progettare una centrale nucleare, un aereo, un pneumatico, assolutamente privi di rischi. Quello che si puo' fare e' partire da un analisi del rischio che va fatta da chi deve usare quel software,
produrre energia da quella centrale nucleare, volare quell'aereo, guidare con quei pneumatici ...e partire dalla loro soglia di accettazione del rischio. Da li capiamo quanti airbag vale la pena di mettere, quanto margine di sicurezza inserire nella progettazione,
etc.
Come ho scritto in inglese, in questo istante i ricercatori di Meta, Antrop, OpenAI e compagnia stanno ANCORA studiando e vedendo come funziona davvero un LLM e la prima indicazione e' che si comporta come il nostro cervello per alcuni processi. Lasciamo che
gli scienziati dietro agli LLM facciano il loro mestiere, e la prof il suo, senza giudizi da Competenti che appaiono assai infondati.
Caution! This message was sent from outside your organization.
Buonguiorno,
Roberto Dolci <rob.dolci@aizoon.us> writes:
> Particolare questo ragionamento. Immagino tu sappia guidare in
> sicurezza, senzimprobable. Cosa molto probabile.
grazie per la figura retorica, le query by example talvota sono efficaci
per focalizzare la natura del problema
in merito alla "guida in sicurezza", la risposta completa è: "dipende
_totalmente_ dalle esperienze di guida che ciascuno di noi ha avuto,
considerando che il corso (pratico) di guida sicura non è obbligatorio"
non apriamo poi nemmeno di striscio il capitolo "codice della strada" in
materia di sicurezza stradale, perché è un ginepraio... torniamo a bomba!
in questo contesto vale la pena ricordare che a mio modesto avviso (non
credo di essere l'unico) è pragmaticamente impossibile codificare le
"regole di guida sicura" in un software, men che meno se statisticamente
programmato (perché in quel caso le regole semplicemente _non
esisterebbero_).
detto questo: usare un sistema LLM - ovvero usare gli output che genera
sulla base di una interazione uomo-macchina ottenuta attraverso una
_determinata_ interfaccia - dal punto di vista _informatico_ equivale a
"guidare la macchina (il computer)"?
non credo proprio, anche se il 99% degli utenti è convinto di stare
"guidando" il proprio computer
informaticamente parlando, è chi la programma che "guida la macchina"
> Conosci la corretta formula della benzina ed il rapporto di
> compressione nel cilantro? Assai improbabile.
Giacomo, io e te /forse/ non conosciamo la formula della benzina [1] e
il rapporto di compressione [2] del motore endotermico MA quella
informazione è _liberamente_ disponibile a ogni persona che ne avesse
bisogno, tra l'altro è (ehrm: dovrebbe essere) un principio fondamentale
della scienza.
Nel caso degli LLM, invece, è _impossibile_ conoscere il "rapporto di
compressione" dell'informazione:
--8<---------------cut here---------------start------------->8---
Computer scientists argue that AI belongs to a subfield of signal
processing, that is data compression.
--8<---------------cut here---------------end--------------->8---
(
https://eu-west-1.protection.sophos.com?d=fritz.ai&u=aHR0cHM6Ly9mcml0ei5haS9ub29zY29wZS8jbm9vc2NvcGUtcmVmLTEyLWJvdHRvbQ==&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=VFRvaW9YWk93ZWhRZEViTExiTzgzd29aNUhxZSt1SXl0OVVQZ3JXUm45ND0=&h=12822ba03cd84bae94dd39d49f535b86&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M)
...perché "sapere NON è dato" di quali sono gli _ingredienti_ di certi
LLM _proprietari_
> Se tu divessi imparare a condurre un veicolo come usi un LLM saresti
> ancora in officina
interessante il cambio di prospettiva tra "condurre un veicolo" e "usare
un LLM": perché non "condurre un LLM"?!?
in ogni caso, qui NON si tratta di "condurre un veicolo" ma di
_progettare_ e immettere un veicolo in circolazione
se gli LLM sono usati per automatizzare il processo decisionale, come
MINIMO chi li usa deve dimostrare a chi quel processo decisionale viene
_imposto_ che la progettazione e l'implementazione di quel LLM è
_debuggubile_ (per usare in inglesismo)... ma è _impossibile_.
se gli LLM sono usati per imparare a tradurre dal latino in inglese,
beh: auguri! (sì perché _al massimo_ servono per permettere agli
studenti di verificare quanto hanno già imparato, o MENO, nel loro
"processo linguistico di traduzione"... ovvero, per capire se funziona
serve che una _persona_ sappia già come funziona /fuori/ dalla macchina
:-O )
quindi: /se/ le traduzioni automatiche devono essere _verificate_,
perché non dovrebbero esserlo le _decisioni_ automatiche (cioè: non
esistono decisioni automatiche)
[...]
saluti, 380°
[1]
https://eu-west-1.protection.sophos.com?d=wikipedia.org&u=aHR0cHM6Ly9pdC53aWtpcGVkaWEub3JnL3dpa2kvQmVuemluYQ==&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=bmJJV3ZGeU5PMFJ6N21sZnF1SWhjVzNad2hmaE9oKzFQSFdaeTZEV3hoWT0=&h=12822ba03cd84bae94dd39d49f535b86&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M
[2]
https://eu-west-1.protection.sophos.com?d=wikipedia.org&u=aHR0cHM6Ly9pdC53aWtpcGVkaWEub3JnL3dpa2kvUmFwcG9ydG9fZGlfY29tcHJlc3Npb25l&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=OWQvcWx1TGh5WW9ndW5xeTR2VmM3RnVIZTlxYXU5cm81M1VLaE5haTVuND0=&h=12822ba03cd84bae94dd39d49f535b86&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M
--
380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo,
non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice
but very few check the facts. Ask me about <
https://eu-west-1.protection.sophos.com?d=stallmansupport.org&u=aHR0cHM6Ly9zdGFsbG1hbnN1cHBvcnQub3Jn&i=NjUwODJhZTVlMDVkNmYyNDlkNTNjOTcy&t=Q3hWanBvU28vR3oySWxwYTVkTE16dFpEYjlMekRLRWE3eHd6Qm5kNmVWcz0=&h=12822ba03cd84bae94dd39d49f535b86&s=AVNPUEhUT0NFTkNSWVBUSVZIDzAwy2k-XXZH0rKNiLigYOxy7SMx-hKRcpPSDBsvdy0OtlM8z7K-Dk9w-Tjog-M>.