Gentoo Council Implements Ban on AI-Assisted Contributions
Gentoo Council forbids AI-generated content from being made in contributions due to copyright and quality concerns. Over the past year, artificial intelligence has become an increasingly integral part of the tech ecosystem. This advancement is on its way to revolutionizing how businesses operate, offering enhanced efficiency and automating mundane tasks. At the same time, however, as AI technologies become deeply ingrained in the tech industry, they also usher in various concerns ranging from ethical dilemmas to potential quality compromises. In light of this, the Gentoo Council, a pivotal entity in the open-source community, recently made headlines by setting a significant precedent concerning AI-generated content. A couple of days ago, they enacted a policy explicitly prohibiting the contribution of any content created with the assistance of Natural Language Processing AI tools to Gentoo’s official projects. The Gentoo Decision: Motivations and Implications Several critical concerns underpin the Gentoo Council’s decision. Foremost among them are copyright issues. With copyright laws still catching up to the fast-paced evolution of AI, using AI-generated content could lead to legal entanglements and undermine the rigorous copyright standards that open-source projects like Gentoo strive to maintain. Additionally, there are apprehensions about the quality of AI-generated content. While AI can produce work that appears convincingly accurate, it often lacks the nuanced understanding necessary for high-stakes or technically demanding projects. For Gentoo, this risk is unacceptable, as it could dilute the quality of their projects and impose an undue burden on developers and users who would need to verify the accuracy of such contributions. Ethical considerations also play a crucial role in their policy. The AI industry’s rapid growth has not been without controversy, including accusations of copyright infringement in training models and concerns over the substantial environmental impact due to AI data centers’ immense energy and water usage. Moreover, the commercial deployment of AI has been linked to job disruptions, declining service quality, and the facilitation of scams and spam. All of these factors led Gentoo[1] to decide to openly ban the use of AI in any development related to it, making it the first distribution to make such a decision. For more information, visit the official announcement [2] <https://linuxiac.com/gentoo-council-implements-ban-on-ai-assisted-contributi...> [1] https://www.gentoo.org/ [2] https://wiki.gentoo.org/wiki/Project:Council/AI_policy It is expressly forbidden to contribute to Gentoo any content that has been created with the assistance of Natural Language Processing artificial intelligence tools. This motion can be revisited, should a case been made over such a tool that does not pose copyright, ethical and quality concerns.
Ciao Giacomo; capisco le ragioni che ci sono dietro, ma devo dire che ho provato un paio di sistemi di assistenza allo sviluppo.. ed il mio giudizio finale è che sono d'aiuto anche ad uno sviluppo responsabile ed informato. For Gentoo, this risk is unacceptable, as it could dilute the quality of
their projects and impose an undue burden on developers and users who would need to verify the accuracy of such contributions.
Usarli non significa che produco codice che lascia più peso ai revisori, tutto il contrario. posso riflettere meglio sui commenti (perchè correggo quelli suggeriti), posso separare il codice di dominio da quello di trasformazioni più astratte, e sono assistito nel generare unit test più rapidamente. Secondo me posizioni come quella di Gentoo, sono importanti per dare un segnale, per fare un racconto di una comunità più attenta, ma poi sotto sotto, se committo del codice scritto con l'aiuto di chatgpt + co-pilot, costantemente rivisto da me... si può dire che il mio contributo sia stato AI-generato? Non mi sono limitato a premere tab, ma ho fatto un lavoro di selezione, riflessione, e guida di quello che mi è stato suggerito. Mi sento comunque autore e responsabile dei pezzi di codice scritti, anche se c'era un "autocomplete" un bel po' più sofisticato del solito. Cordialmente, C On Tue, Apr 23, 2024 at 12:27 PM Giacomo Tesio <giacomo@tesio.it> wrote:
Gentoo Council forbids AI-generated content from being made in contributions due to copyright and quality concerns.
-- Claudio Agosti - Hermes Center, AI Forensics, Reversing Works. Platform Auditor & Tech Researcher [ linktr.ee/claudio.agosti ]
Ciao Claudio, Il 23 Aprile 2024 23:15:29 CEST, Claudio Agosti <claudio.agosti@hermescenter.org> ha scritto:
Ciao Giacomo; capisco le ragioni che ci sono dietro, ma devo dire che ho provato un paio di sistemi di assistenza allo sviluppo.. ed il mio giudizio finale è che sono d'aiuto anche ad uno sviluppo responsabile ed informato.
Forse nel tuo caso riesci ad usarlo bene perché sei perfettamente consapevole che non si tratta di codice scritto da una mente che ne comprende il significato (come quello scritto da un collega in peer programming). Io l'ho visto usare a colleghi più giovani in peer programming, ed in più di un'occasione il tempo richiesto per il refactoring/debug del output è stato maggiore del tempo necessario a scrivere il codice da zero (sapendo cosa scrivere). I colleghi in questione tendevano a fidarsi troppo dei "suggerimenti" e soprattutto non imparavano dagli errori del software (forse perché non li vivevano come propri?) Non solo: in un caso ho provato a far notare al collega i problemi che avevamo osservato durante la sessione di pp, ottenendo una reazione piuttosto piccata, come se avessi messo in discussione la sua competenza invece di quella di Copilot. L'esperienza fin'ora mi ha lasciato un senso di diffidenza nei confronti del codice committato da chi lo usa (cui corrispondono review più lunghe, meticolose, faticose e nettamente più costose per l'azienda). Riflettendoci, potrebbe anche aver senso tenerne conto in fase di colloquio: a parità degli altri fattori, chi non necessita di LLM per scrivere il proprio codice ha probabilmente prospettive di crescita maggiori. Forse può essere utile se già conosci perfettamente il dominio del problema e il contesto di sviluppo (librerie, framework, servizi) nel cui caso riduce i tempi di battitura, ma onestamente non credo che siano davvero "tempi morti": l'atto di scrivere il codice "lentamente" serve a rileggerlo più volte, criticamente, individuando in anticipo potenziali problemi. Inoltre, tale sforzo è utile a ricordarlo e dunque a debuggare mentalmente un problema più rapidamente.
sono assistito nel generare unit test più rapidamente.
Sarà sfiga, ma non gli ho visto produrre in output test utili se non in casi esteremamente basilari (come funzioni pure di natura algebrica) Nella quasi totalità dei miei casi d'uso, la quantità dei mock da configurare rende semplicemente inutile quei tool. Leggermente più utile è nella scrittura di esempi di utilizzo per la documentazione (ma anche in quel caso, bisogna sempre rileggere e testare manualmente che la stronzata è dietro l'angolo.
Secondo me posizioni come quella di Gentoo, sono importanti per dare un segnale, per fare un racconto di una comunità più attenta, ma poi sotto sotto, se committo del codice scritto con l'aiuto di chatgpt + co-pilot, costantemente rivisto da me... si può dire che il mio contributo sia stato AI-generato?
Sì beh... stai completamente ignorando il problema etico. Se copi il codice che ho donato al mondo sotto un copyleft forte (supponi AGPLv3 o magari Hacking License[1]) in un progetto distribuito con una licenza incompatibile (proprietaria o permissiva che sia), sei uno stronzo e lo sai. Se lo fai perché te lo suggerisce CopyALot, sei comunque uno stronzo, ma non lo sai. O meglio, scegli di non saperlo, di lavartene le mani perché... "AI". Non saprei dire, in termini di filosofia morale, se questo ti renda doppiamente colpevole o meno. Penso però si tratti di una di quelle situazioni in cui il soggetto è pienamente consapevole che dalle proprie azioni deriverà un danno a terzi, ma non conoscendo personalmente i terzi, se ne sbatte. Che sia usare Copilot per "risparmiare tempo", vendere criptomenate per non restare col cerino in mano o persino costruire proiettili, la questione mi sembra moralmente analoga.
Non mi sono limitato a premere tab, ma ho fatto un lavoro di selezione, riflessione, e guida di quello che mi è stato suggerito. Mi sento comunque autore e responsabile dei pezzi di codice scritti, anche se c'era un "autocomplete" un bel po' più sofisticato del solito.
Per questo dovresti analizzare con più attenzione le implicazioni etiche. Anche se produci sempre codice "open", quel codice deriva dal codice donato da altri perché sia sì riutilizzato, ma a certe condizioni, prima fra tutte un'attribuzione corretta [2] Tu stai inevitabilmente violando quelle condizioni. Se te ne senti davvero responsabile, come concili la consapevolezza di sfruttare il lavoro di migliaia di altri sviluppatori di software libero senza neppure citarli e la tua idea di te? La scarsa probabilità di essere beccati è rilevante dal punto di vista legale, ma da quello morale no. Per il software libero questi LLM costituiscono un danno secco: hai notato che Microsoft si è guardata bene dall'usare i propri sorgenti per programnare statisticamente GitHub Copilot? Perché? Poteva farlo senza incorrere in ovvie violazioni delle licenze di terze parti. E mediamente il codice Microsoft è più testato, documentato e... "professionale" di quello caricato su GitHub. Non l'ha fatto perché era ben consapevole che quel sorgente sarebbe stato distribuito ed incorporato dentro prodotti proprietari di concorrenti. E non voleva danneggiare sé stessa, per cui ha scelto di danneggiare tutti gli sviluppatori di software libero che sono individualmente più deboli (e collettivamente disorganizzati). Per questo, anche se funzionassero bene, preferisco non usare simili strumenti. E trovo eticamente molto grave favorirne lo sviluppo e normalizzarne/legittimarne l'utilizzo [3]. Giacomo [1] <https://encrypted.tesio.it/documents/HACK.txt> [2] il noto caso di Quake è stato solo più facile da identificare, ma CopyALot funziona sempre così (al netto di string replace) e non può che funzionare così <https://peertube.opencloud.lu/w/eW497u3UYXmQwcQu9LYEDR> [3] vedi ad esempio <https://www.softwareheritage.org/2023/10/19/swh-statement-on-llm-for-code/>
il problema è che questi co-worker ci sono e se usati con giudizio aumentano di molto la produttività, quindi la gente li sta usando pochi rinunceranno a farsi fare del boilerplate code o dei bei commenti perché questo non sarebbe etico, I'm afraid ... ed essendo l'etica una mediazione sociale (a meno che .. ma vabbè), il resto del ragionamento lo possiamo lasciare come esercizio piuttosto mi chiedo come facciano quelli di Gentoo a capire esattamente come è prodotto il codice che i contributori committano devono proprio essere grandi accher! :-)) G. On Wed, 24 Apr 2024 at 01:41, Giacomo Tesio <giacomo@tesio.it> wrote:
Ciao Claudio,
Il 23 Aprile 2024 23:15:29 CEST, Claudio Agosti < claudio.agosti@hermescenter.org> ha scritto:
Ciao Giacomo; capisco le ragioni che ci sono dietro, ma devo dire che ho provato un paio di sistemi di assistenza allo sviluppo.. ed il mio giudizio finale è che sono d'aiuto anche ad uno sviluppo responsabile ed informato.
Forse nel tuo caso riesci ad usarlo bene perché sei perfettamente consapevole che non si tratta di codice scritto da una mente che ne comprende il significato (come quello scritto da un collega in peer programming).
Io l'ho visto usare a colleghi più giovani in peer programming, ed in più di un'occasione il tempo richiesto per il refactoring/debug del output è stato maggiore del tempo necessario a scrivere il codice da zero (sapendo cosa scrivere).
I colleghi in questione tendevano a fidarsi troppo dei "suggerimenti" e soprattutto non imparavano dagli errori del software (forse perché non li vivevano come propri?) Non solo: in un caso ho provato a far notare al collega i problemi che avevamo osservato durante la sessione di pp, ottenendo una reazione piuttosto piccata, come se avessi messo in discussione la sua competenza invece di quella di Copilot.
L'esperienza fin'ora mi ha lasciato un senso di diffidenza nei confronti del codice committato da chi lo usa (cui corrispondono review più lunghe, meticolose, faticose e nettamente più costose per l'azienda).
Riflettendoci, potrebbe anche aver senso tenerne conto in fase di colloquio: a parità degli altri fattori, chi non necessita di LLM per scrivere il proprio codice ha probabilmente prospettive di crescita maggiori.
Forse può essere utile se già conosci perfettamente il dominio del problema e il contesto di sviluppo (librerie, framework, servizi) nel cui caso riduce i tempi di battitura, ma onestamente non credo che siano davvero "tempi morti": l'atto di scrivere il codice "lentamente" serve a rileggerlo più volte, criticamente, individuando in anticipo potenziali problemi.
Inoltre, tale sforzo è utile a ricordarlo e dunque a debuggare mentalmente un problema più rapidamente.
sono assistito nel generare unit test più rapidamente.
Sarà sfiga, ma non gli ho visto produrre in output test utili se non in casi esteremamente basilari (come funzioni pure di natura algebrica)
Nella quasi totalità dei miei casi d'uso, la quantità dei mock da configurare rende semplicemente inutile quei tool.
Leggermente più utile è nella scrittura di esempi di utilizzo per la documentazione (ma anche in quel caso, bisogna sempre rileggere e testare manualmente che la stronzata è dietro l'angolo.
Secondo me posizioni come quella di Gentoo, sono importanti per dare un segnale, per fare un racconto di una comunità più attenta, ma poi sotto sotto, se committo del codice scritto con l'aiuto di chatgpt + co-pilot, costantemente rivisto da me... si può dire che il mio contributo sia stato AI-generato?
Sì beh... stai completamente ignorando il problema etico.
Se copi il codice che ho donato al mondo sotto un copyleft forte (supponi AGPLv3 o magari Hacking License[1]) in un progetto distribuito con una licenza incompatibile (proprietaria o permissiva che sia), sei uno stronzo e lo sai.
Se lo fai perché te lo suggerisce CopyALot, sei comunque uno stronzo, ma non lo sai.
O meglio, scegli di non saperlo, di lavartene le mani perché... "AI".
Non saprei dire, in termini di filosofia morale, se questo ti renda doppiamente colpevole o meno.
Penso però si tratti di una di quelle situazioni in cui il soggetto è pienamente consapevole che dalle proprie azioni deriverà un danno a terzi, ma non conoscendo personalmente i terzi, se ne sbatte.
Che sia usare Copilot per "risparmiare tempo", vendere criptomenate per non restare col cerino in mano o persino costruire proiettili, la questione mi sembra moralmente analoga.
Non mi sono limitato a premere tab, ma ho fatto un lavoro di selezione, riflessione, e guida di quello che mi è stato suggerito. Mi sento comunque autore e responsabile dei pezzi di codice scritti, anche se c'era un "autocomplete" un bel po' più sofisticato del solito.
Per questo dovresti analizzare con più attenzione le implicazioni etiche.
Anche se produci sempre codice "open", quel codice deriva dal codice donato da altri perché sia sì riutilizzato, ma a certe condizioni, prima fra tutte un'attribuzione corretta [2]
Tu stai inevitabilmente violando quelle condizioni.
Se te ne senti davvero responsabile, come concili la consapevolezza di sfruttare il lavoro di migliaia di altri sviluppatori di software libero senza neppure citarli e la tua idea di te?
La scarsa probabilità di essere beccati è rilevante dal punto di vista legale, ma da quello morale no.
Per il software libero questi LLM costituiscono un danno secco: hai notato che Microsoft si è guardata bene dall'usare i propri sorgenti per programnare statisticamente GitHub Copilot?
Perché?
Poteva farlo senza incorrere in ovvie violazioni delle licenze di terze parti.
E mediamente il codice Microsoft è più testato, documentato e... "professionale" di quello caricato su GitHub.
Non l'ha fatto perché era ben consapevole che quel sorgente sarebbe stato distribuito ed incorporato dentro prodotti proprietari di concorrenti. E non voleva danneggiare sé stessa, per cui ha scelto di danneggiare tutti gli sviluppatori di software libero che sono individualmente più deboli (e collettivamente disorganizzati).
Per questo, anche se funzionassero bene, preferisco non usare simili strumenti.
E trovo eticamente molto grave favorirne lo sviluppo e normalizzarne/legittimarne l'utilizzo [3].
Giacomo
[1] <https://encrypted.tesio.it/documents/HACK.txt>
[2] il noto caso di Quake è stato solo più facile da identificare, ma CopyALot funziona sempre così (al netto di string replace) e non può che funzionare così < https://peertube.opencloud.lu/w/eW497u3UYXmQwcQu9LYEDR>
[3] vedi ad esempio < https://www.softwareheritage.org/2023/10/19/swh-statement-on-llm-for-code/
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Ciao Guido Il giorno Wed, 24 Apr 2024 08:38:07 +0200 Guido Vetere ha scritto:
il problema è che questi co-worker ci sono e se usati con giudizio aumentano di molto la produttività
SOLO se misuri la produttività dei programmatori in termini di righe di codice committate. Che è come misurare la produttività dei filosofi in termini di battute al minuto. Se anche tu ci mettessi il 70% in meno a scrivere codice plausibile, sei più produttivo se poi ci metti il 500% in più a debuggare quel codice? E se io, che costo all'azienda tre volte quello che costi tu, devo spendere il triplo del tempo a rivedere le tue commit rispetto a quelle di un altro sviluppatore (perché statisticamente ho osservato che introduci bug più subdoli), sei più produttivo per l'azienda? Al momento, nella mia esperienza, l'uso di LLM durante la scrittura del codice sta aumentando i costi e riducendo la produttività complessiva ed aumentando in modo subdolo i costi di sviluppo (al di là dei costi vivi del SaaS).
quindi la gente li sta usando
La gente crede di usare molte cose da cui in effetti è usata...
pochi rinunceranno a farsi fare del boilerplate code o dei bei commenti perché questo non sarebbe etico, I'm afraid ...
Beh... hai scoperto l'acqua calda: più in generale, pochissimi si pongono problemi etici. Ed una frazione di questi se li pongono nel proprio operare cibernetico. A guardare i numeri, potremmo tranquillamente smettere di occuparci di etica, non credi?
ed essendo l'etica una mediazione sociale (a meno che .. ma vabbè), il resto del ragionamento lo possiamo lasciare come esercizio
TINA again? :-D Direi al contrario che l'esistenza di una minoranza consapevole delle conseguenze che pone (e si pone) problemi etici in materia, mostra che la mediazione sociale di cui parli è ben lontana da sintesi e persino da compromessi universalmente accettati.
piuttosto mi chiedo come facciano quelli di Gentoo a capire esattamente come è prodotto il codice che i contributori committano devono proprio essere grandi accher! :-))
Gli sviluppatori chiedono a chi vuole contribuire di seguire certe policy. Perché assumi che chi non vuole seguire tali policy scelga di contribuire a Gentoo? Perché, più in generale, assumi un comportamento non etico da parte loro? Giacomo
Buonasera Guido, [chiedo scusa per il doppione, avevo usato un mittente non iscritto alla lista] Guido Vetere <vetere.guido@gmail.com> writes:
il problema è che questi co-worker ci sono e se usati con giudizio aumentano di molto la produttività,
Questo tuo giudizio si basa su qualche studio serio che hai sotto mano? Oppure sull'esperienza diretta? Siamo sicuri che quando ci riferiamo allo "sviluppo software" stiamo parlando tutti della stessa cosa? Lo sviluppo software è forse "scrivere codice nel linguaggio di programmazione più figo del momento che giuriamo che è la penultima volta che diciamo che è più figo dei precedenti?" No perché in base alla mia esperienza l'affermazione che fai sopra (aumentano di molto la produttività) è /parecchio/ azzardata (spannometrica?), a meno che con "produttività dello sviluppo software" si intendano cose da "un tanto al chilo" come SLOC, "ore/uomo" o _metriche_ simili ...more on this later, sorry for my rant [...] Saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Buonasera Claudio, Claudio Agosti <claudio.agosti@hermescenter.org> writes: [...]
Secondo me posizioni come quella di Gentoo, sono importanti per dare un segnale,
un segnale confuso e infelice
per fare un racconto di una comunità più attenta
più attenta o più distratta? Boh?
ma poi sotto sotto, se committo del codice scritto con l'aiuto di chatgpt + co-pilot, costantemente rivisto da me... si può dire che il mio contributo sia stato AI-generato?
scusa la franchezza ma non si può dire "chi se ne frega"? stiamo facendo un processo alle intenzioni del contributore? stiamo facendo un processo alle competenze del contributore? finché c'è revisione (commit review) c'è speranza :-D
Non mi sono limitato a premere tab, ma ho fatto un lavoro di selezione, riflessione, e guida di quello che mi è stato suggerito. Mi sento comunque autore e responsabile dei pezzi di codice scritti, anche se c'era un "autocomplete" un bel po' più sofisticato del solito.
è "semplicemente" perché tu hai perfettamente presente il tuo ruolo di sviluppatore e non di /spippolone/ del codice ...e tra le competenze degli sviluppatori ci _deve_ essere anche quella di "gestione del copyright" così come uno sviluppatore può usare codice /scopiazzato/ via Google da altri, senza curarsi della qualità del codice e tantomeno del copyright, altrettanto lo può fare uno sviluppatore che usa una "generative search engine" basata su LLM (onestamente non so come si possa risolvere il problema del copyright in questo caso, perché certi LLM non aiutano per nulla con la /tracciabilità/ del copyright) comunque, finché c'è sviluppo software c'è speranza per l'umanità :-) Happy hacking! 380° [...] -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Buonasera, interessante quanto pretestuosa presa di posizione. Giacomo Tesio <giacomo@tesio.it> writes:
Gentoo Council forbids AI-generated content from being made in contributions
essendo Gentoo /downstream/ (precisamente una distribuzione), di _quali_ contributi stiamo parlando: delle patch applicate downstream? ...oppure "bannano" ogni software upstream che "puzza" di avere qualche pezzo di codice "AI-generated"?
due to copyright and quality concerns.
ma perché i contributi "problematici" dal punto di vista del copyright e della qualità del codice sono consentiti perché "fatti a mano"? [...]
This advancement is on its way to revolutionizing how businesses operate, offering enhanced efficiency and automating mundane tasks.
...e vi giuriamo che questa è la *penultima* volta che vi promettiamo che tutto questo _rivoluzionerà_ il modo di fare business dell'universo
At the same time, however, as AI technologies become deeply ingrained in the tech industry, they also usher in various concerns ranging from ethical dilemmas
interessante come lo "ethics washing" sia diventato /iperbolico/, anzi /spiraloso/ [...]
A couple of days ago, they enacted a policy explicitly prohibiting the contribution of any content created with the assistance of Natural Language Processing AI tools to Gentoo’s official projects.
come già detto in questo thread: come lo verificano se un pezzo di software sorgente è stato generato o pensato da un umano? Come si distingue? [...]
Several critical concerns underpin the Gentoo Council’s decision. Foremost among them are copyright issues.
chiaro che l'uso di LLM generativi preclude in partenza una corretta attribuzione del codice /eventualmente/ (?) copiato paro paro, per non parlare della licenza... ...ma con il codice "scritto a mano" la cosa non genera "concerns"? [...]
Additionally, there are apprehensions about the quality of AI-generated content.
domanda stupida: ma perché come fate a gestire la vostra apprensione in merito alla qualità del codice generato "a mano"?
While AI can produce work that appears convincingly accurate, it often lacks the nuanced understanding necessary for high-stakes or technically demanding projects.
sicuro, come potrebbe benissimo capitare a qualsiasi pezzo di codice sorgente scritto da una persona che non ha sufficiente competenza nel dominio specifico [...]
Ethical considerations also play a crucial role in their policy. The AI industry’s rapid growth has not been without controversy, including accusations of copyright infringement in training models and concerns over the substantial environmental impact due to AI data centers’ immense energy and water usage.
sì ma così vi state infilando in un ginepraio senza fondo... io mi concentrerei sulla qualità e libertà del software che distribuite, ma sono /limitato/
Moreover, the commercial deployment of AI has been linked to job disruptions, declining service quality, and the facilitation of scams and spam.
e che cavolo c'entra?!? avete idea di come viene usato il software che distribuite?!? [...]
[2] https://wiki.gentoo.org/wiki/Project:Council/AI_policy
It is expressly forbidden to contribute to Gentoo any content that has been created with the assistance of Natural Language Processing artificial intelligence tools. This motion can be revisited, should a case been made over such a tool that does not pose copyright, ethical and quality concerns.
e questa sarebbe una policy /actionable/?!? non ho parole Saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Ciao 380, Il 24 Aprile 2024 17:40:49 CEST, "380°" <g380@biscuolo.net> ha scritto:
It is expressly forbidden to contribute to Gentoo any content that has been created with the assistance of Natural Language Processing artificial intelligence tools. This motion can be revisited, should a case been made over such a tool that does not pose copyright, ethical and quality concerns.
e questa sarebbe una policy /actionable/?!?
Lo è tanto quanto quella prevista per contribuire al kernel di Linux, cui è letteralmente richiesto gli sviluppatori di (auto)certificare che ``` a) The contribution was created in whole or in part by me and I have the right to submit it under the open source license indicated in the file; or b) The contribution is based upon previous work that, to the best of my knowledge, is covered under an appropriate open source license and I have the right under that license to submit that work with modifications, whether created in whole or in part by me, under the same open source license (unless I am permitted to submit under a different license), as indicated in the file; or c) The contribution was provided directly to me by some other person who certified (a), (b) or (c) and I have not modified it ``` https://www.kernel.org/doc/html/latest/process/submitting-patches.html#devel...
non ho parole
Lo capisco: il codice prodotto da un LLM non può garantire di soddisfare nessuna delle precedenti clausole. La policy di Gentoo rende solo esplicito ciò che il più diffuso Developer’s Certificate of Origin già richiede. Come fa Linux a impedire che codice che violi quelle condizioni entri nel kernel? Esattamente come farà Gentoo. ;-) Giacomo
Ciao, Giacomo Tesio <giacomo@tesio.it> writes:
Il 24 Aprile 2024 17:40:49 CEST, "380°" <g380@biscuolo.net> ha scritto:
It is expressly forbidden to contribute to Gentoo any content that has been created with the assistance of Natural Language Processing artificial intelligence tools. This motion can be revisited, should a case been made over such a tool that does not pose copyright, ethical and quality concerns.
e questa sarebbe una policy /actionable/?!?
Lo è tanto quanto quella prevista per contribuire al kernel di Linux, cui è letteralmente richiesto gli sviluppatori di (auto)certificare che
``` a) The contribution was created in whole or in part by me and I have the right to submit it under the open source license indicated in the file; or b) The contribution is based upon previous work that, to the best of my knowledge, is covered under an appropriate open source license and I have the right under that license to submit that work with modifications, whether created in whole or in part by me, under the same open source license (unless I am permitted to submit under a different license), as indicated in the file; or c) The contribution was provided directly to me by some other person who certified (a), (b) or (c) and I have not modified it ```
https://www.kernel.org/doc/html/latest/process/submitting-patches.html#devel...
suvvia Giacomo, se rileggi con calma lo vedi anche tu come le due policy siano /diametralmente/ opposte e che quella di Gentoo è _aria_fritta_. Gentoo avrebbe fatto meglio a copiare i punti a-c sopra e aggiungere: --8<---------------cut here---------------start------------->8--- d) Il contributore giurin giurella that the contribution has NOT been created with the assistance of Natural Language Processing artificial intelligence tools. --8<---------------cut here---------------end--------------->8--- Poi: se il "contributor" dovesse dichiarare il falso [1] sul copyright (firmando il commit via PGP!), la responsabilità in una _eventuale_ causa per "copyright infringement" sarebbe sua, cioè la dichiarazione (il c.d. "Developer’s Certificate of Origin 1.1") è _actionable_. Nel caso il "contributor" dovesse dichiarare il falso sull'uso della "AI", che /action/ si potrebbe intraprendere nei suoi confronti? ..."bannarlo" dalla community? [...]
Come fa Linux a impedire che codice che violi quelle condizioni entri nel kernel?
Semplicemente non lo impedisce, rende "solo" esplicito oltre ogni ragionevole dubbio che la responsabilità in merito al copyright è del "contributor" (quindi è reponsabilità sua dotarsi dei mezzi e delle competenze per prendersi quella responsabilità).
Esattamente come farà Gentoo. ;-)
E come farà Gentoo a impedire (forbid) che il codice sviluppato con l'assistenza di una "AI" venga inviato come contributo? Gentoo non ha chiesto una dichiarazione (di principio e scarsamente significativa nel contesto), ha "semplicemente" _probito_. Ripeto: una posizione pretestuosa e inapplicabile. Aria fritta. Saluti, 380° [1] anche a sua insaputa, perché ha fatto il copia-incolla ad-minchiam da un LLM a caso, senza fare adeguate ricerche off-LLM -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Il 24 Aprile 2024 18:50:03 CEST, "380°" ha scritto:
Poi: se il "contributor" dovesse dichiarare il falso [1] sul copyright...
Appunto: chi usa Copilot per produrre la patch e dichiara di non violare licenze di terze parti, sta dichiarando il falso. Perché la patch è un'opera derivata da codice di terzi ma senza attribuzione. Gentoo chiede esplicitamente a chi aderisce al progetto di evitarlo. Mi chiedo: se senti il bisogno di usarlo e te ne sbatti delle conseguenze, perché contribuire proprio a Gentoo? Giacomo
participants (4)
-
380° -
Claudio Agosti -
Giacomo Tesio -
Guido Vetere