Sono sostanzialmente d’accordo che i rischi principali non siano nella tecnologia, di cui stiamo vedendo solo un passaggio evolutivo e non definitivo, ma
Approfitto per segnalare una palese contraddizione nell’appello alla moratoria, dove si assume implicitamente che i progressi avvengano allenando modelli più potenti di GPT-4 mentre contemporaneamente si chiede di rifocalizzare la R&S in AI nel fare tali potenti sistemi allo stato dell’arte più accurati, robusti ecc., ossia più potenti di GPT-4.
— Beppe
PS. I LLM sono tutt’altro che Stochastic Parrots: ripetere a pappagallo i testi da cui sono stati allenati è proprio ciò che non sanno fare.
From: Enrico Nardelli <nardelli@mat.uniroma2.it>
To: Nexa <nexa@server-nexa.polito.it>
Subject: [nexa] Statement from the listed authors of Stochastic
Parrots on the “AI pause” letter
Message-ID: <22c6ff05-a037-f3de-68c0-83548bc4a122@mat.uniroma2.it>
Content-Type: text/plain; charset="utf-8"; Format="flowed"
(mi pare non sia passato in lista)
Statement from the listed authors of Stochastic Parrots on the “AI pause” letter
Timnit Gebru (DAIR), Emily M. Bender (University of Washington), Angelina McMillan-Major (University of Washington), Margaret Mitchell (Hugging Face)
March 31, 2023
/Tl;dr: The harms from so-called AI are real and present and follow from the acts of people and corporations deploying automated systems. Regulatory efforts should focus on transparency, accountability and preventing exploitative labor practices./
https://www.dair-institute.org/blog/letter-statement-March2023//
--
-- EN