Ma vedi Roberto, On Thu, 11 Jul 2024 22:50:28 +0000 Roberto Dolci <rob.dolci@aizoon.us> wrote:
Io condivido la sorpresa della prof nell'enorme differenza tra la traduzione verso l'inglese (perfetta) e quella verso il Latino, valida appunto come bozza. [...] Ne io ne lei avremmo previsto la totale differenza nella qualita,' delle traduzioni a seconda della lingua di partenza
La sorpresa è comprensibile solo se si sta assumendo che una qualche intelligenza, artificiale ma con memoria e potenza di calcolo pressocché illimitata, abbia effettuato entrambe le traduzioni. La tua Prof proietta la propria intelligenza umana sulla macchina e si sorprende che uno studente che abbia imparato a tradurre brillantemente dal latino all'inglese, non abbia imparato a tradurre in modo equivalente dall'inglese al latino. Nota come non ho virgolettato le parole "intelligenza" e "imparato" per riprodurre più fedelmente la prospettiva della Prof che, sentendo "esperti" parlare di "machine learning" e "artificial intelligence", immagina Chat GPT alla stregua di uno studente che abbia imparato a tradurre da una lingua ad un'altra.
La prof correttamente non ha speso tempo nel correggere il Latino tradotto malamente dalla macchina, ma ha fatto lavorare I ragazzi sulla pulizia del loro inglese, fino a quando ChatGPT ha poi tradotto bene.
Interpretazione edificante, ma errata. Chiunque abbia mai studiato latino, ricorda bene le frasette didattiche che costituivano la gran parte degli esempi da tradurre in latino. Frasette semplici e lineari focalizzate sull'esemplificazione e l'apprendimento di specifici costrutti, non sulla espressione di concetti arbitrariamente complessi. Al contrario, esistono molteplici traduzioni dal latino all'inglese di innumerevoli opere in latino che esprimono concetti complessi. Ed è ovvio: un sistema programmato statisticamente, riproporrà traduzioni simili a quelle utilizzate per la sua programmazione. La Prof non può saperlo, perché non comprende come funziona un LLM e non saprebbe come realizzarlo, per cui interpreta le frasi inglesi che "funzionano" come "lineari e pulite" invece che come esempietti didattici. Dunque la tua Prof NON ha insegnato ai propri alunni ad esprimersi meglio in inglese. Gli ha insegnato ad allineare il proprio inglese agli esempietti didattici di traduzione dall'inglese al latino presenti nel dataset sorgente utilizzato per programmare ChatGPT. Personalmente non credo che ciò sia edificante ed educativo per gli studenti, ma auspicabilmente a Boston questi ragazzi troveranno ben altri stimoli.
Hanno capito il vecchio garbage in, garbage out: se butti un testo approssimativo in inglese, la macchina te ne restituisce uno allo stesso livello.
No, sono stati addestrati ad assumersi la responsabilità per gli output erronei di quel software. O meglio, sono stati addestrati a scaricare la responsabilità degli output errati sugli utenti, sugli "studenti caproni" per usare le tue parole. Se avessero compreso davvero il concetto di GIGO, si chiederebbero perché la loro Prof gli fa usare un software buggato che può produrre spazzatura anche quando gli fornisci input di ottima qualità. Si chiederebbero perché i creatori di ChatGPT abbiano razzolato tutta la spazzatura del Web per programmarlo. E magari si chiederebbero perché la Prof invia ad un simile software le email dei propri genitori.
Ne io ne lei avremmo previsto la totale differenza nella qualita,' delle traduzioni a seconda della lingua di partenza, ma lei s'e' adattata bene
S'è "adattata" a cosa? A un fenomeno naturale o ad un automatismo controllato da sconosciuti? Giacomo