Buongiorno.


Oltre che per i libri e gli articoli (anche scientifici: lo si è appurato cercandovi la frase "As a large language model, I [...]),
l'etichetta "made by SALAMI" servirebbe ormai anche per i libretti di istruzioni, i siti di ricette, le immagini selezionate dai motori di ricerca e i video porno.

Servirebbe ovunque ci siano testi o immagini: la questione dell'etichetta coincide purtroppo con quella del watermarking, come era stato previsto.

Al momento, in realtà, accade il contrario; si affida ai SALAMI la selezione dei libri da rimuovere dalle biblioteche:

School district uses ChatGPT to help remove library books
https://www.popsci.com/technology/iowa-chatgpt-book-ban/


-Supermarket AI Offers Recipe for Mom's Famous Mustard Gas

An AI from a New Zealand grocery chain gave one user a recipe for an “Aromatic Water Mix” that included bleach and ammonia as ingredients

https://gizmodo.com/paknsave-ai-savey-recipe-bot-chlorine-gas-1850725057


- Last week, Microsoft took down a string of articles published by "Microsoft Travel" that included a bizarre recommendation for visitors to Ottawa to visit the Ottawa Food Bank and to "consider going into it on an empty stomach."
https://www.businessinsider.com/microsoft-removes-embarrassing-offensive-ai-assisted-travel-articles-2023-8

- On CivitAI, a site for sharing image generating AI models, users can browse thousands of models that can produce any kind of pornographic scenario they can dream of, trained on real images of real people scraped without consent from every corner of the internet.
https://www.404media.co/inside-the-ai-porn-marketplace-where-everything-and-everyone-is-for-sale/

- Yesterday, I encountered a bird sullied by the current non-information spill. Specifically, while scrolling Facebook on my phone, I spotted this very appealing post on Facebook...  “Adorable!” I thought, and clicked share. Two friends of mine very quickly pointed out that this is a synthetic (generated) image. https://medium.com/@emilymenonbender/cleaning-up-a-baby-peacock-sullied-by-a-non-information-spill-d2e2aa642134

Un caro saluto,

Daniela




Da: 380° <g380@biscuolo.net>
Inviato: venerdì 1 settembre 2023 11:32
A: Fabio Alemagna; Daniela Tafani
Cc: nexa@server-nexa.polito.it
Oggetto: Re: [nexa] ‘Life or Death:’ AI-Generated Mushroom Foraging Books Are All Over Amazon
 
Buongiorno,

Fabio Alemagna <falemagn@gmail.com> writes:

> Mi pare che il problema non sia che sono generati dall'AI,

come no? il problema è _esattamente_ che sono scritti da generatori
seriali di cazzate dette bene, senza che questa informazione sia scritta
a caratteri CUBITALI sulla prima, seconda, terza, quarta e quinta di
copertina; dovrebbe essere obbligatorio **di più** delle immagini
raccapriccianti imposte sui pacchetti di sigarette; dovrebbe essere
imposta una etichetta rossa con il simbolo di pericolo e la scritta
"generato da SALAMI: ogni riferimento a fatti, dati, persone, cose,
città, dire, fare, baciare... in questo libro/articolo è PURAMENTE
CASUALE".

...poi ognuno è libero di decidere autonomamemte a quali stronzate
credere quando si tratta di stabilire se l'amanita falloide cotta a 90°
e passata al forno ai raggi gamma è un piatto gourmet.

> ma che libri con istruzioni potenzialmente dannose siano vendibili
> senza che passino il vaglio di alcun tipo di revisione.

e ci mancherebbe pure che introducessero anche il nulla osta del
Ministero della "non dannosità" per la pubblicazione dei libri (o degli
articoli)

...o meglio: in effetti **tutte** le cose scritte da generatori
automatici di cazzate sono _potenzialmente dannose_, quindi la "mia"
proposta (niente di particolarmente scaltro, neh) di cui sopra _fa_
ancora più senso.

[...]

Saluti, 380°



P.S.: che _raccolgiere funghi_ ad-minchiam è potenzialmente pericoloso è
una informazione non abbastanza diffusa?

--
380° (Giovanni Biscuolo public alter ego)

«Noi, incompetenti come siamo,
 non abbiamo alcun titolo per suggerire alcunché»

Disinformation flourishes because many people care deeply about injustice
but very few check the facts.  Ask me about <https://stallmansupport.org>.