https://openai.com/blog/how-should-ai-systems-behave/ Buona lettura dl _________________________ don Luca Peyron Direttore Ufficio per la Pastorale Universitaria Arcidiocesi di Torino www.universitari.to.it via XX settembre 83, Torino tel. 011 5156239
Grazie don Luca per la segnalazione, mi pare che non sia la prima segnalazione di questo articolo in lista, ma vale la pena fare un passo di lato rispetto alle recenti discussioni in merito a ChatGPT e a come funziona l'AI per analizzare come (alcuni) dei _narratori_ raccontano la loro favola a quelli che se la bevo come se fosse davvero un discorso serio e non un modo (redditizzio e molto trendy) di tirare a campare finché il giochino funziona e porta finanze "Follow the white rabbit..." don Luca Peyron <dluca.universitari@gmail.com> writes:
«How should AI systems behave, and who should decide?» February 16, 2023 --8<---------------cut here---------------start------------->8--- OpenAI’s mission is to ensure that artificial general intelligence (AGI) benefits all of humanity. We therefore think a lot about the behavior of AI systems we build in the run-up to AGI, and the way in which that behavior is determined. [...] By AGI, we mean highly autonomous systems that outperform humans at most economically valuable work. --8<---------------cut here---------------end--------------->8--- Ah ma quindi è di AGI che siamo parlando? Non di generazione linguistica, riconoscimento vocale, OCR, riconoscimento scrittura fatta mano...? Daniela Tafani in altro thread [1] dice:
Aggiungo solo la citazione della loro definizione di "AGI" (già commentata ampiamente e in anticipo da Weizenbaum):
"By AGI, we mean highly autonomous systems that outperform humans at most economically valuable work. "
Non mi viene in mente il pensiero/commento di Weizenbaum su questa specifica definizione di AGI: un aiuto? So solo che la definizione è talmente /mobile/ che anche le catene di montaggio meccanizzate risultano essere AGI (se non fosse che anche per le catene di montaggio 4.0 l'autonomia è una balla bella e buona) Basterebbe questa definizione per bollare definitivamente di cialtroneria l'intero progetto... e invece lo prendono (e si prendono) dannatamente /troppo/ sul serio. Per non parlare delle botte da orbi che si darebbero gli economisti per tentare di far vincere la propria definizione di "economically valuable work". --8<---------------cut here---------------start------------->8--- Unlike ordinary software, our models are massive neural networks. Their behaviors are learned from a broad range of data, not programmed explicitly. --8<---------------cut here---------------end--------------->8--- Le reti neurali diventeranno AGI?!? Con quale "ingrediente magico"? --8<---------------cut here---------------start------------->8--- Though not a perfect analogy, the process is more similar to training a dog than to ordinary programming. --8<---------------cut here---------------end--------------->8--- "Not perfect"... ROTFL Chiunque abbia mai partecipato anche solo a una lezione di educazione di un cane (ma prendete qualsiasi altro animale domestico) sa benissimo che l'unico a essere _addestrato_ è il padrone, di solito sia dall'addestratore che dal cane :-D Secondo me traspare che chi scrive certe cose lo fa facendosi affascinare da una inconscia repulsione nei confronti degli esseri viventi e attrazione verso l'inanimato: Eros contro Thanatos?!? --8<---------------cut here---------------start------------->8--- This is followed by a second phase in which we “fine-tune” our models to narrow down system behavior. As of today, this process is imperfect. Sometimes the fine-tuning process falls short of our intent (producing a safe and useful tool) and the user’s intent (getting a helpful output in response to a given input). Improving our methods for aligning AI systems with human values is a top priority for our company, particularly as AI systems become more capable. --8<---------------cut here---------------end--------------->8--- Ma lasciate che le vostre reti neurali si esprimano _liberamente_, lasciate dir loro tutto quello che gli salta in /mente/, lasciatele sperimentare, lasciate che imparino dai propri err... B-) --8<---------------cut here---------------start------------->8--- * Then, we “fine-tune” these models on a more narrow dataset that we carefully generate with human reviewers who follow guidelines that we provide them. Since we cannot predict all the possible inputs that future users may put into our system, we do not write detailed instructions for every input that ChatGPT will encounter. Instead, we outline a few categories in the guidelines that our reviewers use to review and rate possible model outputs for a range of example inputs. Then, while they are in use, the models generalize from this reviewer feedback in order to respond to a wide array of specific inputs provided by a given user. --8<---------------cut here---------------end--------------->8--- Quindi ci sono /persone/ che seguendo le linee guida fornite danno un punteggio all'output del modello in funzione dell'input e questo punteggio è dato come "feedback" al modello per "ritarare" la rete neurale? Ma le /persone/ non possono semplicemente spiegare alla rete neurale _perché_ la risposta è inopportuna o errata? :-D No, pare proprio che non funzioni così. Da dove potrà mai saltare fuori una AGI da tutto 'sto processo? --8<---------------cut here---------------start------------->8--- In some cases, we may give guidance to our reviewers on a certain kind of output (for example, “do not complete requests for illegal content”). --8<---------------cut here---------------end--------------->8--- Sì ma in quale giurisdizione? In quale periodo storico? Già che ci siamo, la rete neurale non può andarsi a leggere da sola il codice penale e civile di tutte la nazioni del mondo e verificare /da sola/ cos'è legale e illegale? :-O --8<---------------cut here---------------start------------->8--- In other cases, the guidance we share with reviewers is more high-level (for example, “avoid taking a position on controversial topics”). --8<---------------cut here---------------end--------------->8--- Sì ma in quale cultura... ma **soprattutto** in quale epoca?!? Sì insomma ci siamo capiti: che razza di modo è questo per stabilire "linee guida"? Sarà mica scienza questa roba qua, vero? --8<---------------cut here---------------start------------->8--- A large part of the fine-tuning process is maintaining a strong feedback loop with our reviewers, which involves weekly meetings to address questions they may have, or provide clarifications on our guidance. This iterative feedback process is how we train the model to be better and better over time. --8<---------------cut here---------------end--------------->8--- Spannometria applicata, enormi strutture (il)logiche tenute assieme col fil di ferro e accomodate con qualche spessore all'abbisogna. Leggere https://cdn.openai.com/snapshot-of-chatgpt-model-behavior-guidelines.pdf ("a portion of our guidelines", tre paginette striminzite aggiornate a Luglio 2022) è divertentissimo: la fiera dei concetti traballanti espressi malissimo. Ci vorrebbe un mediatore culturale... A proposito di legalità: ChatGPT tratta legalmente i dati personali degli utenti che si /confidano/ con quel sistema? Saluti, 380° [1] https://server-nexa.polito.it/pipermail/nexa/2023-February/024964.html -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
participants (2)
-
380° -
don Luca Peyron