Ciao, Giacomo.
Riproviamo:
1.
>>La tecnologia è neutrale,
tutto dipende dall'uso che se ne fa.
La tecnologia non è "una":
- La tecnologia neutrale è neutrale, ecc., quindi
sì;
- La tecnologia "di guerra", ...ha già l'uso definito fin
dal'inizio (e non c'è inganno).
2.
>>Gli LLM sono neutrali,
dunque tutto dipende dall'uso che se ne fa.
Non ritengo che siano "di guerra" (o, almeno, non concepiti come tali; correggimi se sbaglio), quindi sì.
[Dal seguito, vedo che li
consideri veramente pericolosi, ma ritengo che sia una percezione
...gonfiata.]
3.
>>La tecnologia nel suo
complesso non è MAI neutrale
NON puoi dire che NON sia neutrale
la tecnologia del bastone per il vecchietto, che può essere usato anche per
malmenare il medesimo...
Se fai l'esempio della mina
antiuomo e della bomba atomica, parti da premessa di parte, e quindi sbagliata
(si chiama ragionamento "circolare"; lo fanno ad es. i credenti).
4.
>>La prima affermazione è
facile da falsificare per costruzione: è sufficiente elencare le diverse
tecnologie progettate esplicitamente per nuocere, dalla mina antiuomo alla bomba
atomica.
La tecnologia "di guerra" sappiamo
che esiste; ma non puoi estendere l'affermazione a tutta la
tecnologia.
La locuzione "tecnologia nel suo complesso" è volutamente
ingannevole (a cominciare da te stesso...), perché ti permette di fare l'esempio
che conviene a te, deviando / deragliando dal discorso che si
faceva.
5.
>>Se riduciamo
l'affermazione a "esistono anche tecnologie neutrali", dimostrarlo diventa
davvero difficile: tutte le tecnologie menzionate (e tanto più quelle più
complesse) sono politicamente orientate.
Posso essere d'accordo che le tecnologie più complesse non nascano nel giardino di casa (anche se ci sono esempi di garage...), ovvero che ci siano di frequente grossi interessi in ballo fin dall'inizio, ma -- di nuovo -- c'è l'interesse del venditore e quello del predatore, e non sono la medesima cosa.
E tutto il mio discorso verteva
sul fatto che il progresso tecnologico (sottinteso "positivo") può essere girato
a vantaggio (predatorio) di qualcuno, e anzi che la cosa avviene praticamente
sempre, anche quando la tecnologia
nasce neutrale (cfr. l'esempio del bastone del
vecchietto).
6.
>> Io affermo
soltanto:
Internet è sin dalla sua ideazione
un'arma, progettata per garantire l'esecuzione di un contrattacco nucleare
durante la guerra fredda.
Si è poi evoluta in un diverso
tipo di arma, molto più offensiva.
Internet è nata (in ambito
militare perché lì ci sono i soldi) per costruire una rete "resiliente" (che serve anche per i
disastri naturali, oltre che per aspetti militari). E il web è nato con fini non militari (ed è il web che
viene usato "male"; la rete di base è veramente neutra, ...salvo quando
il venditore se ne approfitta).
7.
>> Anche un coltello può
essere progettato per essere usato esclusivamente a tavola per tagliare la
cotoletta di pollo o per tagliare un tiramisù.
Può ad esempio essere progettato
per spezzarsi se sottoposto ad una minima pressione lungo l'asse di impugnatura,
rendendolo inutilizzabile per accoltellare chicchessia pur essendo ottimo per
tagliare la carne lungo la lama.
Se fai così, a parte il costo, poi
non lo puoi usare per svitare una vite... Il coltello è uno strumento
multiuso.
8.
>>Per contro, un coltello
militare può essere progettato per lacerare i tessuti, producendo codette
interne per un più rapido dissanguamento del nemico.
Qui niente da dire. MA SI VEDE:
non c'è l'inganno predatorio di farti vedere il coltello da pasto, e poi
tagliarti la gola.
Sai perché i mancini erano così
odiati, in passato? Perché ti salutavano con la destra, a mostrare che erano
disarmati, e ti infilavano un pugnale in pancia usando la
sinistra.
Il punto non era portare il
pugnale, era l'inganno di tenerlo con l'altra mano rispetto a quella che porgeva
il saluto.
9.
>>Dunque, anche se possiamo
usare la nostra fantasia per immaginare un coltello veramente neutrale, ogni
coltello reale facilita o impedisce
determinati usi, avendo effetti politici concreti.
Un coltello reale "permette" altri
usi (e la cosa è positiva); e la malvagità non sta mai nel coltello, quando l'uso è
malvagio.
10.
>>I LLM NON sono
neutrali.
Per tornare alla questione
sollevata dalla Professoressa Vallor, sebbene esistano molti usi potenzialmente
utili per le tecniche di programmazione statistica adottate anche per realizzare
le "AI generative" (di cui gli LLM di cui parliamo sono un esempio), queste
tecnologie sono intrinsecamente e fondativamente politicamente
orientate.
Lo sono sin dalla loro ideazione e
progettazione, laddove i progettisti hanno come obiettivo minimo superare il
test di Turing.
Superare il test di Turing è un
legittimo obiettivo scientifico. Però
inganni più il sempliciotto che non altri (e, se al posto del termine
"ingannare", usi "sembrare a", sappi che c'è un intero libro che spiega in
dettaglio come costruire una macchina che "appaia" come cosciente, ...come se
apparirlo fosse un valido risultato, il che ritengo non
sia).
11.
>>Il test di Turing
consiste, temo urga ricordarlo anche qui, nell'ingannare uno o più esseri umani
sulla natura della sorgente dei dati sottoposti, spingendo le vittime ad
attribuirli erroneamente ad un essere
umano.
V. sopra.
12.
>>I creatori di un LLM
conversazionale vincono questo "imitation game" se persone ignare attribuiscono
intelligenza al loro software, e questi software sono progettati e continuamente
ottimizzati esattamente per questo obiettivo.
I creatori di un LLM adottano per
"l'intelligenza" una "scorciatoia statistica", ingannando per primi se stessi
(parlo di scienza / tecnologia); POI, qualcuno trova interessante ingannare NON
in termini scientifici, ma di altro genere. E si torna al punto di
partenza.
La scienza -- come conoscenza --
è sempre buona in sé (sapere di più è
meglio di sapere di meno); peccato che sapere di più da parte di certa gente
possa diventare un serio pericolo per altri.
Si tratta di una problematica di
fondo molto seria, ...ma non diamone la colpa al coltello. Se anche fosse un
problema generale, ovvero se tutta la scienza / tecnologia nascondesse un
pericolo (che di fatto nasconde, in presenza di predatori), di certo non
potremmo spegnere i cervelli di quei pochi che ancora lo
usano...
13.
>>Obiettivo che è
estremamente specifico: ingannare esseri umani affinché confondano la macchina
con un altro essere umano.
Tu ci vedi una malignità che io
non ci vedo. DI CERTO, mi serve che forniscano un prodotto simile a quello di un
umano (e per i sempliciotti è così), perché altrimenti funzionerebbe come le
vecchie traduzioni automatiche, che dovevi rieditare perché
grossolane.
14.
>>Per questa semplice ragione, le "AI generative" (e gli LLM di cui parliamo in particolare) possono essere usate SOLO per ingannare esseri umani.
Se scrivi "sembrare a" gli togli
quell'aura di malignità che fa solo gioco al tuo discorso, senza essere vera
in origine.
15.
>>Perché è la loro ragion
d'essere, l'obiettivo per cui sono ottimizzate a costo di miliardi di dollari ed
enormi quantità di energia.
C'è un grosso valore economico
nell'ottenere risultati automatici (pensa a uno spreadsheet); in questo caso
"l'inganno originario" sta nella natura del prodotto, ma se l'inganno sia
benigno o maligno non viene da come è fatto il prodotto, ma per che cosa e come lo
usi.
16.
>>Prendiamo, di nuovo (...)
il "riassuntino" che un LLM ha fatto del discorso della Professoressa
Vallor.
Omette completamente aspetti
fondamentali della metafora che propone su cui la Professoressa si era
giustamente soffermata a lungo (omissis).
Eppure Guido, in assoluta buona
fede, l'ha proposto come "sintesi dell'intervento". Ingannato sulla natura di
quell'output, non prodotto da una mente intelligente che abbia compreso
l'intervento, ha perpetuato l'inganno a sua volta sulla
lista.
Qui c'è da dire innanzitutto che
l'inganno NON era affatto voluto. Ovvero che non stiamo parlando del problema
"politico". Qui stiamo parlando ancora della "tecnica imperfetta" che non ha
ingannato chi conosce il problema, e ha ingannato qualcun altro. ACCADE sempre,
nel mondo del commercio. E qui, non è neanche un inganno per far male o danni,
ma semplicemente un'imperfezione tecnica che qualcuno nota e qualcuno
no.
Ovvero,stai tirando il
ragionamento per la giacchetta dove non c'entra ("inconferente", direbbero i
legulei).
Devi stare attento, con il
linguaggio... (pensa che una tonnellata di filosofi ebeti hanno discusso per
millenni di nulla / non-essere, dimenticando che la negazione appartiene solo ai
linguaggi, e non all'ontologia -- "non gatto" ha senso insiemistica e tassonomia
biologica, non nella realtà -- quando l'ambito del discorso era proprio
...l'ontologia). C'è ingannare e ingannare; da "sembrare a" a "fottere". E NON
sono la stessa cosa...
17.
>>Se fossimo su twitter, la
chiameresti misinformazione.
Se Guido fosse russo, la
chiameresti disinformazione.
Guido stesso, in retrospettiva,
potrebbe riconoscere di aver provato ad ingannare sé stesso sul tempo necessario
a partecipare al dibattito in cui si inserisce il libro / intervento della
Professoressa Vallor.
A me sembra solo overlooking (e
magari aveva ragione Guido -- de minimis non curat praetor -- se "l'inganno" era
della Vallor che dimenticava il tema socio-predatorio per fare un bel discorsino
tecnico; qui sono io che la butto in caciara, perché non ho guardato il
video).
Ci sono discorsi importantissimi
in letteratura, o in seghine mentali scientifiche, che poi all'atto pratico
contano ben poco.
18.
>>Ma tutti ricondurrebbero
la responsabilità a Guido (vittima inconsapevole che arriva a difendere i propri
carnefici) o, al massimo, al software che ha "sfortunatamente" prodotto l'output
"errato".
Dovremmo invece ricondurla a
coloro che hanno programmato quel software per ingannare Guido sulla sua abilità
di comprendere un testo e produrne una "sintesi".
V. sopra. Stai facendo di un
termitaio una piramide egizia.
19.
>>Sia che ciò avvenga per
ragioni economiche o politiche (che poi... anche l'economia è
politica...).
Economia e politica, nel discorso
che facevo io (predazione / sfruttamento / manipolazione) sono la stessa faccia
della stessa medaglia (l'altra faccia essendo la scienza /
tecnologia).
La distinzione fondamentale fra
"strumento" e "uso" (che solo in casi specifici -- bomba atomica -- coincidono;
poi, anche per la bomba c'è stato l'utilizzo "deterrente" per evitare di usarla,
che è un po' l'esempio duale di quanto sostengo).
20.
>>Più in generale, una
tecnologia progettata e realizzate per ingannare le persone può essere
utilizzata solo per ingannare
persone.
V. il discorso sulla parola
"ingannare". Non fare sillogismi sul "non-essere", senza pensare alle
alternative semantiche in campo (alcune e diverse per "ingannare", solo
semantica nulla per il il non-essere).
21.
>>E' letteralmente
un'arma.
Fai gli stessi sillogismi di certa
gente sui social: o sbagliano le premesse, o sbagliano le inferenze, o
trascurano le semantiche. Tutto hai fatto (in modo veniale); tutti e tre gli
errori; ma c'è gente (cfr. i filosofi ebeti di cui sopra) che gli errori li fa
...monumentali.
Qualche volta c'è solo un "errore"
(V. Guido), non un "inganno". E magari è stato meglio il suo errore che non
l'inzuccarsi tanto sul discorso della Vallor.
22.
>>Il fatto che persone
lontanissime dall'idea di rivolgere un'arma controllata da terzi contro sé
stessi, la puntino quotidianamente alla propria testa, dovrebbe rendere evidente
la sua potenza e pericolosità.
Out of the blue ...cosa?
Che ci sono imbecilli che credono
alla generatività statistica?
C'è gente che ha creduto alle
.com, ai subprime, prima ancora ai tulipani, ancor oggi ai
bitcoin.
Gente che ha votato Trump o Meloni
(per altri, gente che ha votato Conte e Di Maio). Ha sempre e soltanto ragione
Cipolla: è lo stupido il principale problema...
23.
>>Inoltre, paragonare
tecnologie semplici come un coltello o un martello ad un LLM è sbagliato anche
per il semplice fatto che costo e complessità realizzativa determinano una
barriera all'ingresso tale da determinare intrinsecamente un orientamento
politico: solo un élite molto ricca può permettersi di provare a costruirli, e
lo farà solo se vi intravede un'utilità per sé nettamente superiore ai
rischi.
Qui entriamo nel discorso --
socio-economico-politico prima ancora di cominciare -- della ricchezza usata per
incrementare ricchezza. Io, nel merito, distingui i ricchi onesti dai ricchi
ladri. E mi preoccupo più della distinzione fra onesto e ladro, che non di
quella fra ricco e povero.
L'occasione (ricchezza) fa l'uomo
ladro, ma non si tratta di un'identità (ovvero, finiscila con i proclami
vetero-socialisti).
24.
>>Per queste ragioni,
ritengo che le affermazioni 1 e 2 siano false.
E, per le mie risposte, ritengo
che tu abbia distorto in vari modi i termini del tema "inganno" (che ha
semantica, e anche origine, varia), quando poi in realtà il discorso verteva su
predazione / sfruttamento / manipolazione, dove alla fin fine al predatore va
bene qualunque strumento, per
perseguire i suoi scopi (zucchine, denaro, coltelli, bombe,
...).
25.
>>Sono d'accordo che gli
intenti "predatori" di molti esseri umani sono socialmente dannosi e vadano
contenuti.
Ma va...?
26.
>>E sono anche d'accordo che
tali intenti siano alla base di molti dei problemi di cui discutiamo speso in
questa lista.
Nulla da
eccepire.
27.
>>Tanto d'accordo che ho
provato a spiegarti COME tali intenti siano fondativi e costituenti degli LLM,
così come di molte altre armi.
E qui si torna a sopra.
28.
>>La tecnologia, spero di
averti mostrato, è sempre una
espressione umana politicamente orientata, intrinsecamente, ancora prima che
venga effettivamente utilizzata.
Prova a spiegarlo a chi (Edward
Jenner) ha inventato il vaccino, ...quanto deve essersi rivoltato nella tomba,
con il Covid!!
29.
>>Gli LLM conversazionali
esistono per ingannare le menti, esattamente come le mine antiuomo esistono per
uccidere e mutilare i corpi.
V. sopra, again.
30.
>>Non possono essere usate
per niente altro.
Io ho trovato utilissimo chatGPT per contestare
un'affermazione demente, tanto quanto l'ho trovato ondivago su altri temi, scolastico in altri, ...creativo mai.
E' uno strumento, e lo usi come
più conviene (io mi sono rifiutato di progettare mine antiuomo, dove l'obiettivo
era chiaro e senza alternative); se poi sei uno stronzo (tu generico,
ovviamente), ecco che le cose girano al male.
31.
>>E sono talmente efficaci
nell'ingannare e nell'alienare l'uomo, che molte persone (anche colte e
intelligenti) finiscono per credersi e dichiararsi poco diverse da questi
software.
Non solo la madre dei fessi è sempre incinta, ma anche quella dei superficiali, dei troppo semplici (anche se di essi è il regno dei cieli), dei disattenti (io ho il problema opposto: troppa gente parla come se fosse un ripetitore statistico...).
32.
>>Allo stesso modo possiamo
creare software emancipatori e socialmente utili. Io ci provo da
tempo sebbene sia una lotta impari.
Il problema è sempre il vecchio
"panem et circenses" (oppure la miopia manageriale): io ho provato a liberare la
democrazia soffocata da mille interferenze di questi tempi, tramite uno
strumento tecnico, ma la gente non ama alzare il deretano dalla sedia e
rimboccarsi le maniche per diventare libera (e lo scriveva Tocqueville già
parecchi decenni fa); preferisce godere del poco che ha; non ha la "fame" di chi
non ha nulla, e lotta.
33.
>>Spero vivamente di essere
stato finalmente più chiaro (omissis)
Non ti incazzare: ...sei stato
solo verboso; se ti fossi messo in concreto di fronte a uno specchio :-)
avresti visto che sai girare bene i discorsi (anche troppo), ma ti lasci
ingannare dalle parole.
Abbracci,
A
----- Original Message -----From: Giacomo TesioSent: Wednesday, January 08, 2025 12:26 PMSubject: Re: [nexa] In a mirrorMi spiace Alfredo per averti dato l'impressione di volerla buttare in
caciara, ti assicuro che credevo le mie parole fossero chiare e persino
autoevidenti, ovvie... tanto da temere di annoiare la lista.
Riproviamo.
A quanto ho capito del tuo ragionamento, tu fai due affermazioni
distinte, che ritieni entrambe vere:
1. La tecnologia è neutrale, tutto dipende dall'uso che se ne fa.
2. Gli LLM sono neutrali, dunque tutto dipende dall'uso che se ne fa.
Io ritengo entrambe le affermazioni false, ovvero non rispondenti alla
realtà. Permettimi di (ri)spiegarti il perché.
# La tecnologia nel suo complesso non è MAI neutrale
La prima affermazione è facile da falsificare per costruzione: è
sufficiente elencare le diverse tecnologie progettate esplicitamente
per nuocere, dalla mina antiuomo alla bomba atomica.
Se riduciamo l'affermazione a "esistono anche tecnologie neutrali",
dimostrarlo diventa davvero difficile: tutte le tecnologie menzionate
(e tanto più quelle più complesse) sono politicamente orientate.
Internet è sin dalla sua ideazione un'arma, progettata per garantire
l'esecuzione di un controattacco nucleare durante la guerra fredda.
Si è poi evoluta in un diverso tipo di arma, molto più offensiva [1].
Anche un coltello può essere progettato per essere usato esclusivamente
a tavola per tagliare la cotoletta di pollo o per tagliare un tiramisù.
Può ad esempio essere progettato per spezzarsi se sottoposto ad una
minima pressione lungo l'asse di impugnatura, rendendolo inutilizzabile
per accoltellare chicchessia pur essendo ottimo per tagliare la carne
lungo la lama.
Per contro, un coltello militare può essere progettato per lacerare i
tessuti, producendo codette interne per un più rapido dissanguamento
del nemico.
Dunque, anche se possiamo usare la nostra fantasia per immaginare un
coltello veramente neutrale [2], ogni coltello _reale_ facilita o
impedisce determinati usi, avendo effetti politici concreti.
# I LLM NON sono neutrali.
Per tornare alla questione sollevata dalla Professoressa Vallor,
sebbene esistano molti usi potenzialmente utili per le tecniche di
programmazione statistica adottate anche per realizzare le "AI
generative" (di cui gli LLM di cui parliamo sono un esempio),
queste tecnologie sono intrinsecamente e fondativamente
politicamente orientate.
Lo sono sin dalla loro ideazione e progettazione, laddove i progettisti
hanno come obiettivo minimo superare il test di Turing.
Il test di Turing consiste, temo urga ricordarlo anche qui,
nell'ingannare uno o più esseri umani sulla natura della sorgente
dei dati sottoposti, spingendo le vittime ad attribuirli _erroneamente_
ad un essere umano.
I creatori di un LLM conversazionale vincono questo "imitation game" se
persone ignare attribuiscono intelligenza al loro software, e questi
software sono progettati e continuamente ottimizzati esattamente per
questo obiettivo.
Obiettivo che è estremamente specifico: ingannare esseri umani affinché
confondano la macchina con un altro essere umano.
Per questa semplice ragione, le "AI generative" (e gli LLM di cui
parliamo in particolare) possono essere usate SOLO per ingannare
esseri umani.
Perché è la loro ragion d'essere, l'obiettivo per cui sono ottimizzate
a costo di miliardi di dollari ed enormi quantità di energia.
Prendiamo, di nuovo (mi scuserà Guido, ma è veramente un fantastico
esempio di pessimo uso di un LLM che può apparire ragionevole all'utente
ignorante ormai succube della propaganda), il "riassuntino" che un LLM
ha fatto del discorso della Professoressa Vallor. [3]
Omette completamente aspetti fondamentali della metafora che propone su
cui la Professoressa si era giustamente soffermata a lungo, riducendola
ad affermazione ovvia, quanto trita e ritrita, sulle AI che amplificano
e distorcono i dati umani da cui derivano.
La Professoressa ha detto altro!
Ha usato una metafora abbastanza attinente da un punto di vista tecnico
per spiegare _come_ e _perché_ i software programmati statisticamente
elaborano i dati in input e quelli sorgente compressi al proprio
interno.
E questa è solo una delle omissioni e banalizzazioni che l'output del
LLM ha effettuato. Non ultima (guarda caso) l'omessa esclusione delle
"AI generative" dalle tecnologie che potrebbero essere impiegate
in modo socialmente utile.
Eppure Guido, in assoluta buona fede, l'ha proposto come "sintesi
dell'intervento". Ingannato sulla natura di quell'output, non prodotto
da una mente intelligente che abbia compreso l'intervento, ha
perpetuato l'inganno a sua volta sulla lista.
Se fossimo su twitter, la chiameresti misinformazione.
Se Guido fosse russo, la chiameresti disinformazione. :-D
Guido stesso, in retrospettiva, potrebbe riconoscere di aver provato ad
ingannare sé stesso sul tempo necessario a partecipare al dibattito in
cui si inserisce il libro / intervento della Professoressa Vallor [4].
Ma tutti ricondurrebbero la responsabilità a Guido (vittima
inconsapevole che arriva a difendere i propri carnefici [5]) o, al
massimo, al software che ha "sfortunatamente" prodotto l'output
"errato".
Dovremmo invece ricondurla a coloro che hanno programmato quel software
per ingannare Guido sulla sua abilità di comprendere un testo e
produrne una "sintesi".
Sia che ciò avvenga per ragioni economiche o politiche.
(che poi... anche l'economia è politica...)
Più in generale, una tecnologia progettata e realizzate per ingannare
le persone può essere utilizzata _solo_ per ingannare persone.
E' letteralmente un'arma.
Il fatto che persone lontanissime dall'idea di rivolgere un'arma
controllata da terzi contro sé stessi, la puntino quotidianamente
alla propria testa, dovrebbe rendere evidente la sua potenza e
pericolosità.
Inoltre, paragonare tecnologie semplici come un coltello o un
martello ad un LLM è sbagliato anche per il semplice fatto che costo e
complessità realizzativa determinano una barriera all'ingresso tale
da determinare intrinsecamente un orientamento politico: solo un élite
molto ricca può permettersi di provare a costruirli, e lo farà solo
se vi intravede un'utilità per sé nettamente superiore ai rischi.
Per queste ragioni, ritengo che le affermazioni 1 e 2 siano false.
Sono d'accordo che gli intenti "predatori" di molti esseri umani sono
socialmente dannosi e vadano contenuti.
E sono anche d'accordo che tali intenti siano alla base di molti
dei problemi di cui discutiamo speso in questa lista.
Tanto d'accordo che ho provato a spiegarti COME tali intenti siano
fondativi e costituenti degli LLM, così come di molte altre armi.
La tecnologia, spero di averti mostrato, è _sempre_ una espressione
umana politicamente orientata, intrinsecamente, ancora prima
che venga effettivamente utilizzata.
Gli LLM conversazionali esistono per ingannare le menti, esattamente
come le mine antiuomo esistono per uccidere e mutilare i corpi.
Non possono essere usate per niente altro.
E sono talmente efficaci nell'ingannare e nell'alienare l'uomo, che
molte persone (anche colte e intelligenti) finiscono per credersi
e dichiararsi poco diverse da questi software.
Allo stesso modo possiamo creare software emancipatori e socialmente
utili. Io ci provo da tempo [6] sebbene sia una lotta impari.
Spero vivamente di essere stato finalmente più chiaro (di certo
Maurizio, non sono stato conciso :-D), ma nel caso aveste ulteriori
dubbi, forse potremmo continuare in privato per non tediare la lista.
Giacomo
[1]
https://encrypted.tesio.it/2018/07/31/the-web-is-still-a-darpa-weapon.html
i sono stati (e vi sono) diversi tentativi di rimuoverne (o
mitigarne) gli aspetti offensivi e militari, ma sono troppo deboli.
Si potrebbe dire che, di fatto, è come se stessimo conversando
amabilmente in una piazza cosparsa di mine antiuomo, sforzandoci di
non guardarle, di ignorare chi le indica e persino di arrestare chi
prova a rimuoverle.
[2] Ah se esistessero coltelli da cucina VERAMENTE NEUTRALI!
Coltelli da cucina automaticamente impegnati a mantenere
l'equilibrio fra bene e male! Quanti miliardari in meno! :-D
https://assortedmeeples.com/true-neutral-dnd-alignment-guide
[3] Per chi volesse rileggerlo:
https://server-nexa.polito.it/pipermail/nexa/2025-January/053758.html
[4] come, in fondo, ha delicatamente provato a fargli notare Alberto
https://server-nexa.polito.it/pipermail/nexa/2025-January/053759.html
[5] "Ebbene: un riassunto-traduzione come quello che ChatGPT ha fatto
del transcript della Prof. Vallor qualche anno fa ce lo sognavamo,
credimi."
https://server-nexa.polito.it/pipermail/nexa/2025-January/053770.html
NOTE to SELF: "approfondire cosa bevessero/mangiassero prima di
andare a dormire, che nemmeno l'impepata di cozze..." :-D
[6] https://jehanne.h--k.it/
https://monitora-pa.it/
https://code.tesio.it/p/self-hosting/doh.cgi/file?name=POLITICS.txt&ci=tip
https://monitora-pa.it/LICENSE.txt