The FTC is investigating whether ChatGPT harms consumers
The FTC is investigating whether ChatGPT harms consumers The agency’s demand for OpenAI’s documents about AI risks mark the company’s greatest U.S. regulatory threat to date By Cat Zakrzewski<https://www.washingtonpost.com/people/cat-zakrzewski/?itid=ai_top_zakrzewski...> Updated July 13, 2023 at 10:44 a.m. EDT|Published July 13, 2023 at 6:00 a.m. EDT The Federal Trade Commission has opened an expansive investigation into OpenAI, probing whether the maker of the popular ChatGPT bot has run afoul of consumer protection laws by putting personal reputations and data at risk. The agency this week sent the San Francisco company a 20-page demand for records about how it addresses risks related to its AI models, according to a document reviewed by The Washington Post<https://www.washingtonpost.com/documents/67a7081c-c770-4f05-a39e-9d02117e50e...>. The salvo represents the most potent regulatory threat to date to OpenAI’s business in the United States, as the company goes on a global charm offensive<https://www.washingtonpost.com/technology/2023/04/09/sam-altman-openai-chatg...> to shape the future of artificial intelligence policy. Analysts have called OpenAI’s ChatGPT the fastest-growing consumer app in history, and its early success set off an arms race among Silicon Valley companies<https://www.washingtonpost.com/podcasts/post-reports/the-ai-arms-race-is-on/...> to roll out competing chatbots. The company’s chief executive, Sam Altman, has emerged as an influential figure in the debate over AI regulation, testifying on Capitol Hill<https://www.washingtonpost.com/technology/2023/05/16/sam-altman-open-ai-cong...>, dining with lawmakers and meeting with President Biden<https://www.washingtonpost.com/technology/2023/05/04/white-house-ai-ceos-mee...> and Vice President Harris. Big Tech was moving cautiously on AI. Then came ChatGPT.<https://www.washingtonpost.com/technology/2023/01/27/chatgpt-google-meta/?it...> But now the company faces a new test in Washington, where the FTC has issued multiple warnings<https://www.washingtonpost.com/technology/2023/04/25/artificial-intelligence...> that existing consumer protection laws apply to AI, even as the administration and Congress struggle to outline new regulations.<https://www.washingtonpost.com/technology/2023/06/17/congress-regulating-ai-...> Senate Majority Leader Charles E. Schumer (D-N.Y.) has predicted<https://www.washingtonpost.com/technology/2023/06/21/ai-regulation-us-senate...> that new AI legislation is months away. The FTC’s demands of OpenAI are the first indication of how it intends to enforce those warnings. If the FTC finds that a company violates consumer protection laws, it can levy fines or put a business under a consent decree<https://www.washingtonpost.com/technology/2022/09/12/mudge-twitter-ftc-conse...>, which can dictate how the company handles data. The FTC has emerged as the federal government’s top Silicon Valley cop, bringing large fines against Meta<https://www.washingtonpost.com/technology/2019/07/12/ftc-votes-approve-billi...>, Amazon <https://www.washingtonpost.com/technology/2023/05/31/amazon-alexa-ring-ftc-l...> and Twitter <https://www.washingtonpost.com/technology/2022/05/25/twitter-fine-ftc/?itid=...> for alleged violations of consumer protection laws. The FTC called on OpenAI to provide detailed descriptions of all complaints it had received of its products making “false, misleading, disparaging or harmful” statements about people. The FTC is investigating whether the company engaged in unfair or deceptive practices that resulted in “reputational harm” to consumers, according to the document. The FTC also asked the company to provide records related to a security incident that the company disclosed in March when a bug in its systems allowed some users to see payment-related information, as well as some data from other users’ chat history. The FTC is probing whether the company’s data security practices violate consumer protection laws. OpenAI said in a blog post <https://openai.com/blog/march-20-chatgpt-outage> that the number of users whose data was revealed to someone else was “extremely low.” OpenAI and the FTC did not immediately respond to requests for comment sent on Thursday morning. News of the probe comes as FTC Chair Lina Khan is likely to face a combative hearing<https://www.washingtonpost.com/politics/2023/07/12/tech-giants-racking-up-wi...> Thursday before the House Judiciary Committee, where Republican lawmakers are expected to analyze her enforcement record and accuse her of mismanaging <https://www.washingtonpost.com/technology/2023/03/09/musk-ftc-house-republic...> the agency. Khan’s ambitious plans to rein in Silicon Valley have suffered key losses in court. On Tuesday, a federal judge rejected the FTC’s attempt <https://www.washingtonpost.com/technology/2023/07/11/microsoft-activision-ft...> to block Microsoft’s $69 billion deal to buy the video game company Activision. The agency has repeatedly warned that action is coming on AI, in speeches, blog posts<https://www.ftc.gov/business-guidance/blog/2023/02/keep-your-ai-claims-check>, op-eds and news conferences. In a speech at Harvard Law School<https://www.ftc.gov/system/files/ftc_gov/pdf/Remarks-to-JOLT-4-1-2023.pdf> in April, Samuel Levine, the director of the agency’s Bureau of Consumer Protection, said the agency was prepared to be “nimble” in getting ahead of emerging threats. “The FTC welcomes innovation, but being innovative is not a license to be reckless,” Levine said. “We are prepared to use all our tools, including enforcement, to challenge harmful practices in this area.” The FTC also has issued several colorful blog posts about its approach to regulating AI, at times invoking popular science fiction movies to warn the industry against running afoul of the law. The agency has warned<https://www.washingtonpost.com/technology/2023/04/25/artificial-intelligence...> against AI scams, using generative AI to manipulate potential customers and falsely exaggerating the capabilities of AI products. Khan also participated in a news conference with Biden administration officials in April about the risk of AI discrimination. “There is no AI exemption to the laws on the books,” Khan said at that event. The FTC’s push faced swift pushback from the tech industry. Adam Kovacevich, the founder and CEO of the industry coalition Chamber of Commerce, said it’s clear that the FTC has oversight of data security and misrepresentation. But he said it’s unclear if the agency has the authority to “police defamation or the contents of ChatGPT’s results.” "AI is making headlines right now, and the FTC is continuing to put flashy cases over securing results,” he said. Among the information the FTC is seeking from Open AI is any research, testing or surveys that assess how well consumers understand “the accuracy or reliability of outputs” generated by its AI tools. The agency made extensive demands about records related to ways OpenAI’s products could generate disparaging statements, asking the company to provide records of the complaints people send about its chatbot making false statements. The agency’s focus on such fabrications comes after numerous high-profile reports of the chatbot producing incorrect information that could damage people’s reputations. Mark Walters, a radio talk show host in Georgia sued OpenAI for defamation, alleging the chabot made up legal claims against him. The lawsuit <https://www.courthousenews.com/wp-content/uploads/2023/06/walters-openai-com...> alleges that ChatGPT falsely claimed that Walters, the host of “Armed American Radio,” was accused of defrauding and embezzling funds from the Second Amendment Foundation. The response was provided in response to a question about a lawsuit about the foundation that Walters is not a party to, according to the complaint. ChatGPT also said that a lawyer had made sexually suggestive comments and attempted to touch a student on a class trip to Alaska, citing an article that it said had appeared in The Washington Post. But no such article existed, the class trip never happened and the lawyer said he was never accused of harassing a student, The Post reported previously<https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/?itid=lk_i...>. The FTC in its request also asked the company to provide extensive details about its products and the way it advertises them. It also demanded details about the policies and procedures that OpenAI takes before it releases any new product to the public, including a list of times that OpenAI held back a large language model because of safety risks. The agency also demanded a detailed description of the data that OpenAI uses to train its products, which mimic humanlike speech by ingesting text, mostly scraped from Wikipedia, Scribd and other sites across the open web. The agency also asked OpenAI to describe how it refines its models to address their tendency to “hallucinate,” making up answers <https://www.washingtonpost.com/technology/2023/05/30/ai-chatbots-chatgpt-bar...> when the models don’t know the answer to a question. OpenAI also has to turn over details about how many people were affected by the March security incident and information about all the steps it took to respond. The FTC’s records request, which is called a Civil Investigative Demand, primarily focuses on potential consumer protection abuses, but it also asks OpenAI to provide some details about how it licenses its models to other companies. Europe moves ahead on AI regulation, challenging tech giants’ power<https://www.washingtonpost.com/technology/2023/06/14/eu-parliament-approves-...> The United States has trailed other governments in drafting AI legislation and regulating the privacy risks associated with the technology. Countries within the European Union have taken steps to limit U.S. companies’ chatbots under the bloc’s privacy law, the General Data Protection Regulation. Italy temporarily blocked<https://www.washingtonpost.com/world/2023/03/31/italy-ban-chatgpt-artificial...> ChatGPT from operating there due to data privacy concerns, and Google had to postpone the launch of its chatbot Bard after receiving requests for privacy assessments from the Irish Data Protection Commission. The European Union is also expected to pass AI legislation by the end of the year. There is a flurry of activity in Washington to catch up. On Tuesday, Schumer hosted an all-senator briefing with officials from the Pentagon and intelligence community to discuss the national security risks of artificial intelligence, as he works with a bipartisan group of senators to craft new AI legislation. Schumer told reporters after the session that it’s going to be “very hard” to regulate AI, as lawmakers try to balance the need for innovation with ensuring there are proper safeguards on the technology. On Wednesday, Vice President Harris hosted a group of consumer protection advocates and civil liberties leaders at the White House for a discussion on the safety and security risks of AI. “It is a false choice to suggest that we either can advance innovation or we protect consumers,” Harris said. “We can do both.” https://www.washingtonpost.com/technology/2023/07/13/ftc-openai-chatgpt-sam-...
Si può leggere qui il documento della FTC: https://www.washingtonpost.com/documents/67a7081c-c770-4f05-a39e-9d02117e50e... L'indagine ha per oggetto la possibilità che i prodotti che incorporano Large Language Models configurino pratiche sleali o ingannevoli in relazione a 1) privacy e data security e 2) danni ai consumatori, inclusi danni reputazionali (diffamazione, ecc.). Si compone di 49 "interrogazioni" e 17 richieste di documentazione, inclusa ad esempio la richiesta di documenti interni come linee guida o “dizionari” (sic) che spieghino che cosa intende OpenAI per: a) "freely and openly available data", b) "reinforcement learning from human feedback" e c) "hallucination" o "hallucinate". Tra i molti aspetti interessanti dell'indagine, c'è il fatto che la FTC sembri considerare OpenAI direttamente responsabile per i danni eventualmente provocati da un prodotto (significativamente chiamato "product" e non "service") che permette a terze parti, cioè agli utilizzatori, di generare affermazioni false o diffamatorie a loro insaputa. E ciò a dispetto degli "avvertimenti" riguardo alle c.d. allucinazioni ecc. Nella sua impostazione generale, l'investigazione mi sembra inoltre sgomberare il campo dalla distinzione tra "input" e "output" su cui si basa molta della narrativa AI-innocentista, ovvero l'argomento secondo cui l’utilizzo di training data è comunque lecito, indipendentemente dal tipo di dato e dalle modalità di utilizzo, mentre è solo a livello dell’output che può sorgere qualche responsabilità – eventualmente da “condividere” con l’utilizzatore di turno. Nell’impostazione della FTC, invece, la pratica commerciale che presiede al prodotto in questione va considerata nel suo insieme,e in relazione agli effetti complessivamente provocati sul consumatore. Infine, alcune alcune delle interrogazioni (ad es. la n. 22) riguardano in maniera dettagliata la raccolta e il trattamento di dati personali, con la richiesta di specificare le modalità impiegate da Open AI per escludere l’impiego di informazioni personali come training data. Qui la FTC da’ chiaramente per acquisito che il trattamento di dati personali come training data senza consenso sia illegale. Forse una riprova del fatto che i tanto vituperati rilievi del Garante italiano non erano così infondati? Un saluto cordiale, _______________ *Maurizio Borghi* Università di Torino https://www.dg.unito.it/persone/maurizio.borghi Co-Director Nexa Center for Internet & Society <https://nexa.polito.it/> Il giorno gio 13 lug 2023 alle ore 17:40 Daniela Tafani < daniela.tafani@unipi.it> ha scritto:
The FTC is investigating whether ChatGPT harms consumers The agency’s demand for OpenAI’s documents about AI risks mark the company’s greatest U.S. regulatory threat to date By Cat Zakrzewski <https://www.washingtonpost.com/people/cat-zakrzewski/?itid=ai_top_zakrzewski...> Updated July 13, 2023 at 10:44 a.m. EDT|Published July 13, 2023 at 6:00 a.m. EDT The Federal Trade Commission has opened an expansive investigation into OpenAI, probing whether the maker of the popular ChatGPT bot has run afoul of consumer protection laws by putting personal reputations and data at risk.
The agency this week sent the San Francisco company a 20-page demand for records about how it addresses risks related to its AI models, according to a document reviewed by The Washington Post <https://www.washingtonpost.com/documents/67a7081c-c770-4f05-a39e-9d02117e50e...>. The salvo represents the most potent regulatory threat to date to OpenAI’s business in the United States, as the company goes on a global charm offensive <https://www.washingtonpost.com/technology/2023/04/09/sam-altman-openai-chatg...> to shape the future of artificial intelligence policy.
Analysts have called OpenAI’s ChatGPT the fastest-growing consumer app in history, and its early success set off an arms race among Silicon Valley companies <https://www.washingtonpost.com/podcasts/post-reports/the-ai-arms-race-is-on/...> to roll out competing chatbots. The company’s chief executive, Sam Altman, has emerged as an influential figure in the debate over AI regulation, testifying on Capitol Hill <https://www.washingtonpost.com/technology/2023/05/16/sam-altman-open-ai-cong...>, dining with lawmakers and meeting with President Biden <https://www.washingtonpost.com/technology/2023/05/04/white-house-ai-ceos-mee...> and Vice President Harris.
Big Tech was moving cautiously on AI. Then came ChatGPT. <https://www.washingtonpost.com/technology/2023/01/27/chatgpt-google-meta/?it...>
But now the company faces a new test in Washington, where the FTC has issued multiple warnings <https://www.washingtonpost.com/technology/2023/04/25/artificial-intelligence...> that existing consumer protection laws apply to AI, even as the administration and Congress struggle to outline new regulations. <https://www.washingtonpost.com/technology/2023/06/17/congress-regulating-ai-...> Senate Majority Leader Charles E. Schumer (D-N.Y.) has predicted <https://www.washingtonpost.com/technology/2023/06/21/ai-regulation-us-senate...> that new AI legislation is months away.
The FTC’s demands of OpenAI are the first indication of how it intends to enforce those warnings*. *If the FTC finds that a company violates consumer protection laws, it can levy fines or put a business under a consent decree <https://www.washingtonpost.com/technology/2022/09/12/mudge-twitter-ftc-conse...>, which can dictate how the company handles data. The FTC has emerged as the federal government’s top Silicon Valley cop, bringing large fines against Meta <https://www.washingtonpost.com/technology/2019/07/12/ftc-votes-approve-billi...>, Amazon <https://www.washingtonpost.com/technology/2023/05/31/amazon-alexa-ring-ftc-lawsuit-settlement/?itid=lk_inline_manual_10>and Twitter <https://www.washingtonpost.com/technology/2022/05/25/twitter-fine-ftc/?itid=lk_inline_manual_10>for alleged violations of consumer protection laws.
The FTC called on OpenAI to provide detailed descriptions of all complaints it had received of its products making “false, misleading, disparaging or harmful” statements about people. The FTC is investigating whether the company engaged in unfair or deceptive practices that resulted in “reputational harm” to consumers, according to the document.
The FTC also asked the company to provide records related to a security incident that the company disclosed in March when a bug in its systems allowed some users to see payment-related information, as well as some data from other users’ chat history. The FTC is probing whether the company’s data security practices violate consumer protection laws. OpenAI said in a blog post <https://openai.com/blog/march-20-chatgpt-outage>that the number of users whose data was revealed to someone else was “extremely low.”
OpenAI and the FTC did not immediately respond to requests for comment sent on Thursday morning.
News of the probe comes as FTC Chair Lina Khan is likely to face a combative hearing <https://www.washingtonpost.com/politics/2023/07/12/tech-giants-racking-up-wi...> Thursday before the House Judiciary Committee, where Republican lawmakers are expected to analyze her enforcement record and accuse her of mismanaging
<https://www.washingtonpost.com/technology/2023/03/09/musk-ftc-house-republicans-twitter/?itid=lk_inline_manual_16>the agency. Khan’s ambitious plans to rein in Silicon Valley have suffered key losses in court. On Tuesday, a federal judge rejected the FTC’s attempt <https://www.washingtonpost.com/technology/2023/07/11/microsoft-activision-ftc-decision/?itid=ap_catzakrzewski&itid=lk_inline_manual_16>to block Microsoft’s $69 billion deal to buy the video game company Activision.
The agency has repeatedly warned that action is coming on AI, in speeches, blog posts <https://www.ftc.gov/business-guidance/blog/2023/02/keep-your-ai-claims-check>, op-eds and news conferences. In a speech at Harvard Law School <https://www.ftc.gov/system/files/ftc_gov/pdf/Remarks-to-JOLT-4-1-2023.pdf> in April, Samuel Levine, the director of the agency’s Bureau of Consumer Protection, said the agency was prepared to be “nimble” in getting ahead of emerging threats.
“The FTC welcomes innovation, but being innovative is not a license to be reckless,” Levine said. “We are prepared to use all our tools, including enforcement, to challenge harmful practices in this area.”
The FTC also has issued several colorful blog posts about its approach to regulating AI, at times invoking popular science fiction movies to warn the industry against running afoul of the law. The agency has warned <https://www.washingtonpost.com/technology/2023/04/25/artificial-intelligence...> against AI scams, using generative AI to manipulate potential customers and falsely exaggerating the capabilities of AI products. Khan also participated in a news conference with Biden administration officials in April about the risk of AI discrimination.
“There is no AI exemption to the laws on the books,” Khan said at that event.
The FTC’s push faced swift pushback from the tech industry. Adam Kovacevich, the founder and CEO of the industry coalition Chamber of Commerce, said it’s clear that the FTC has oversight of data security and misrepresentation. But he said it’s unclear if the agency has the authority to “police defamation or the contents of ChatGPT’s results.”
"AI is making headlines right now, and the FTC is continuing to put flashy cases over securing results,” he said.
Among the information the FTC is seeking from Open AI is any research, testing or surveys that assess how well consumers understand “the accuracy or reliability of outputs” generated by its AI tools. The agency made extensive demands about records related to ways OpenAI’s products could generate disparaging statements, asking the company to provide records of the complaints people send about its chatbot making false statements.
The agency’s focus on such fabrications comes after numerous high-profile reports of the chatbot producing incorrect information that could damage people’s reputations. Mark Walters, a radio talk show host in Georgia sued OpenAI for defamation, alleging the chabot made up legal claims against him. The lawsuit <https://www.courthousenews.com/wp-content/uploads/2023/06/walters-openai-complaint-gwinnett-county.pdf>alleges that ChatGPT falsely claimed that Walters, the host of “Armed American Radio,” was accused of defrauding and embezzling funds from the Second Amendment Foundation. The response was provided in response to a question about a lawsuit about the foundation that Walters is not a party to, according to the complaint.
ChatGPT also said that a lawyer had made sexually suggestive comments and attempted to touch a student on a class trip to Alaska, citing an article that it said had appeared in The Washington Post. But no such article existed, the class trip never happened and the lawyer said he was never accused of harassing a student, The Post reported previously <https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/?itid=lk_i...> .
The FTC in its request also asked the company to provide extensive details about its products and the way it advertises them. It also demanded details about the policies and procedures that OpenAI takes before it releases any new product to the public, including a list of times that OpenAI held back a large language model because of safety risks.
The agency also demanded a detailed description of the data that OpenAI uses to train its products, which mimic humanlike speech by ingesting text, mostly scraped from Wikipedia, Scribd and other sites across the open web. The agency also asked OpenAI to describe how it refines its models to address their tendency to “hallucinate,” making up answers <https://www.washingtonpost.com/technology/2023/05/30/ai-chatbots-chatgpt-bard-trustworthy/?itid=lk_inline_manual_36>when the models don’t know the answer to a question.
OpenAI also has to turn over details about how many people were affected by the March security incident and information about all the steps it took to respond.
The FTC’s records request, which is called a Civil Investigative Demand, primarily focuses on potential consumer protection abuses, but it also asks OpenAI to provide some details about how it licenses its models to other companies.
Europe moves ahead on AI regulation, challenging tech giants’ power <https://www.washingtonpost.com/technology/2023/06/14/eu-parliament-approves-...>
The United States has trailed other governments in drafting AI legislation and regulating the privacy risks associated with the technology. Countries within the European Union have taken steps to limit U.S. companies’ chatbots under the bloc’s privacy law, the General Data Protection Regulation. Italy temporarily blocked <https://www.washingtonpost.com/world/2023/03/31/italy-ban-chatgpt-artificial...> ChatGPT from operating there due to data privacy concerns, and Google had to postpone the launch of its chatbot Bard after receiving requests for privacy assessments from the Irish Data Protection Commission. The European Union is also expected to pass AI legislation by the end of the year.
There is a flurry of activity in Washington to catch up. On Tuesday, Schumer hosted an all-senator briefing with officials from the Pentagon and intelligence community to discuss the national security risks of artificial intelligence, as he works with a bipartisan group of senators to craft new AI legislation. Schumer told reporters after the session that it’s going to be “very hard” to regulate AI, as lawmakers try to balance the need for innovation with ensuring there are proper safeguards on the technology.
On Wednesday, Vice President Harris hosted a group of consumer protection advocates and civil liberties leaders at the White House for a discussion on the safety and security risks of AI.
“It is a false choice to suggest that we either can advance innovation or we protect consumers,” Harris said. “We can do both.”
https://www.washingtonpost.com/technology/2023/07/13/ftc-openai-chatgpt-sam-... _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- _______________ *Maurizio Borghi* Università di Torino https://www.dg.unito.it/persone/maurizio.borghi Co-Director Nexa Center for Internet & Society <https://nexa.polito.it/> My Webex room: https://unito.webex.com/meet/maurizio.borghi
Colgo entusiasmo per queste ipotesi e interpretazioni che la FTC fa. Io ritengo che siano invece, al di là del fatto che si tratta appunto di ipotesi e interpretazioni, non fatti conclamati, considerazioni sostanzialmente frutto di bias cognitivi e background culturale che poca conoscenza hanno del funzionamento degli LLM. Affermare che OpenAI sarebbe «direttamente responsabile per i danni eventualmente provocati da un prodotto (significativamente chiamato "product" e non "service") che permette a terze parti, cioè agli utilizzatori, di generare affermazioni false o diffamatorie a loro insaputa», è come dire che se io mettessi online un generatore di frasi casuali, ma di senso compiuto, che prendessero spunto dall'input dell'utente, e se l'input dell'utente fosse il nome e cognome di una persona esistente, e se il software generasse, casualmente, frasi potenzialmente diffamatorie per quella persona se l'utente le pubblicasse, e se poi l'utente le pubblicasse, il responsabile dell'eventuale diffamazione sarei io e non l'utente che ha fornito l'input e ha poi divulgato l'output. Trovo che sia una posizione sostanzialmente cretina. Fabio Il giorno sab 15 lug 2023 alle ore 12:37 Maurizio Borghi via nexa <nexa@server-nexa.polito.it> ha scritto:
Si può leggere qui il documento della FTC:
https://www.washingtonpost.com/documents/67a7081c-c770-4f05-a39e-9d02117e50e...
L'indagine ha per oggetto la possibilità che i prodotti che incorporano Large Language Models configurino pratiche sleali o ingannevoli in relazione a 1) privacy e data security e 2) danni ai consumatori, inclusi danni reputazionali (diffamazione, ecc.). Si compone di 49 "interrogazioni" e 17 richieste di documentazione, inclusa ad esempio la richiesta di documenti interni come linee guida o “dizionari” (sic) che spieghino che cosa intende OpenAI per: a) "freely and openly available data", b) "reinforcement learning from human feedback" e c) "hallucination" o "hallucinate".
Tra i molti aspetti interessanti dell'indagine, c'è il fatto che la FTC sembri considerare OpenAI direttamente responsabile per i danni eventualmente provocati da un prodotto (significativamente chiamato "product" e non "service") che permette a terze parti, cioè agli utilizzatori, di generare affermazioni false o diffamatorie a loro insaputa. E ciò a dispetto degli "avvertimenti" riguardo alle c.d. allucinazioni ecc.
Nella sua impostazione generale, l'investigazione mi sembra inoltre sgomberare il campo dalla distinzione tra "input" e "output" su cui si basa molta della narrativa AI-innocentista, ovvero l'argomento secondo cui l’utilizzo di training data è comunque lecito, indipendentemente dal tipo di dato e dalle modalità di utilizzo, mentre è solo a livello dell’output che può sorgere qualche responsabilità – eventualmente da “condividere” con l’utilizzatore di turno. Nell’impostazione della FTC, invece, la pratica commerciale che presiede al prodotto in questione va considerata nel suo insieme,e in relazione agli effetti complessivamente provocati sul consumatore.
Infine, alcune alcune delle interrogazioni (ad es. la n. 22) riguardano in maniera dettagliata la raccolta e il trattamento di dati personali, con la richiesta di specificare le modalità impiegate da Open AI per escludere l’impiego di informazioni personali come training data. Qui la FTC da’ chiaramente per acquisito che il trattamento di dati personali come training data senza consenso sia illegale. Forse una riprova del fatto che i tanto vituperati rilievi del Garante italiano non erano così infondati?
Un saluto cordiale,
_______________ Maurizio Borghi Università di Torino https://www.dg.unito.it/persone/maurizio.borghi Co-Director Nexa Center for Internet & Society
Il giorno gio 13 lug 2023 alle ore 17:40 Daniela Tafani <daniela.tafani@unipi.it> ha scritto:
The FTC is investigating whether ChatGPT harms consumers
The agency’s demand for OpenAI’s documents about AI risks mark the company’s greatest U.S. regulatory threat to date
By Cat Zakrzewski Updated July 13, 2023 at 10:44 a.m. EDT|Published July 13, 2023 at 6:00 a.m. EDT The Federal Trade Commission has opened an expansive investigation into OpenAI, probing whether the maker of the popular ChatGPT bot has run afoul of consumer protection laws by putting personal reputations and data at risk.
The agency this week sent the San Francisco company a 20-page demand for records about how it addresses risks related to its AI models, according to a document reviewed by The Washington Post. The salvo represents the most potent regulatory threat to date to OpenAI’s business in the United States, as the company goes on a global charm offensive to shape the future of artificial intelligence policy.
Analysts have called OpenAI’s ChatGPT the fastest-growing consumer app in history, and its early success set off an arms race among Silicon Valley companies to roll out competing chatbots. The company’s chief executive, Sam Altman, has emerged as an influential figure in the debate over AI regulation, testifying on Capitol Hill, dining with lawmakers and meeting with President Biden and Vice President Harris.
Big Tech was moving cautiously on AI. Then came ChatGPT.
But now the company faces a new test in Washington, where the FTC has issued multiple warnings that existing consumer protection laws apply to AI, even as the administration and Congress struggle to outline new regulations. Senate Majority Leader Charles E. Schumer (D-N.Y.) has predicted that new AI legislation is months away.
The FTC’s demands of OpenAI are the first indication of how it intends to enforce those warnings. If the FTC finds that a company violates consumer protection laws, it can levy fines or put a business under a consent decree, which can dictate how the company handles data. The FTC has emerged as the federal government’s top Silicon Valley cop, bringing large fines against Meta, Amazon and Twitter for alleged violations of consumer protection laws.
The FTC called on OpenAI to provide detailed descriptions of all complaints it had received of its products making “false, misleading, disparaging or harmful” statements about people. The FTC is investigating whether the company engaged in unfair or deceptive practices that resulted in “reputational harm” to consumers, according to the document.
The FTC also asked the company to provide records related to a security incident that the company disclosed in March when a bug in its systems allowed some users to see payment-related information, as well as some data from other users’ chat history. The FTC is probing whether the company’s data security practices violate consumer protection laws. OpenAI said in a blog post that the number of users whose data was revealed to someone else was “extremely low.”
OpenAI and the FTC did not immediately respond to requests for comment sent on Thursday morning.
News of the probe comes as FTC Chair Lina Khan is likely to face a combative hearing Thursday before the House Judiciary Committee, where Republican lawmakers are expected to analyze her enforcement record and accuse her of mismanaging the agency. Khan’s ambitious plans to rein in Silicon Valley have suffered key losses in court. On Tuesday, a federal judge rejected the FTC’s attempt to block Microsoft’s $69 billion deal to buy the video game company Activision.
The agency has repeatedly warned that action is coming on AI, in speeches, blog posts, op-eds and news conferences. In a speech at Harvard Law School in April, Samuel Levine, the director of the agency’s Bureau of Consumer Protection, said the agency was prepared to be “nimble” in getting ahead of emerging threats.
“The FTC welcomes innovation, but being innovative is not a license to be reckless,” Levine said. “We are prepared to use all our tools, including enforcement, to challenge harmful practices in this area.”
The FTC also has issued several colorful blog posts about its approach to regulating AI, at times invoking popular science fiction movies to warn the industry against running afoul of the law. The agency has warned against AI scams, using generative AI to manipulate potential customers and falsely exaggerating the capabilities of AI products. Khan also participated in a news conference with Biden administration officials in April about the risk of AI discrimination.
“There is no AI exemption to the laws on the books,” Khan said at that event.
The FTC’s push faced swift pushback from the tech industry. Adam Kovacevich, the founder and CEO of the industry coalition Chamber of Commerce, said it’s clear that the FTC has oversight of data security and misrepresentation. But he said it’s unclear if the agency has the authority to “police defamation or the contents of ChatGPT’s results.”
"AI is making headlines right now, and the FTC is continuing to put flashy cases over securing results,” he said.
Among the information the FTC is seeking from Open AI is any research, testing or surveys that assess how well consumers understand “the accuracy or reliability of outputs” generated by its AI tools. The agency made extensive demands about records related to ways OpenAI’s products could generate disparaging statements, asking the company to provide records of the complaints people send about its chatbot making false statements.
The agency’s focus on such fabrications comes after numerous high-profile reports of the chatbot producing incorrect information that could damage people’s reputations. Mark Walters, a radio talk show host in Georgia sued OpenAI for defamation, alleging the chabot made up legal claims against him. The lawsuit alleges that ChatGPT falsely claimed that Walters, the host of “Armed American Radio,” was accused of defrauding and embezzling funds from the Second Amendment Foundation. The response was provided in response to a question about a lawsuit about the foundation that Walters is not a party to, according to the complaint.
ChatGPT also said that a lawyer had made sexually suggestive comments and attempted to touch a student on a class trip to Alaska, citing an article that it said had appeared in The Washington Post. But no such article existed, the class trip never happened and the lawyer said he was never accused of harassing a student, The Post reported previously.
The FTC in its request also asked the company to provide extensive details about its products and the way it advertises them. It also demanded details about the policies and procedures that OpenAI takes before it releases any new product to the public, including a list of times that OpenAI held back a large language model because of safety risks.
The agency also demanded a detailed description of the data that OpenAI uses to train its products, which mimic humanlike speech by ingesting text, mostly scraped from Wikipedia, Scribd and other sites across the open web. The agency also asked OpenAI to describe how it refines its models to address their tendency to “hallucinate,” making up answers when the models don’t know the answer to a question.
OpenAI also has to turn over details about how many people were affected by the March security incident and information about all the steps it took to respond.
The FTC’s records request, which is called a Civil Investigative Demand, primarily focuses on potential consumer protection abuses, but it also asks OpenAI to provide some details about how it licenses its models to other companies.
Europe moves ahead on AI regulation, challenging tech giants’ power
The United States has trailed other governments in drafting AI legislation and regulating the privacy risks associated with the technology. Countries within the European Union have taken steps to limit U.S. companies’ chatbots under the bloc’s privacy law, the General Data Protection Regulation. Italy temporarily blocked ChatGPT from operating there due to data privacy concerns, and Google had to postpone the launch of its chatbot Bard after receiving requests for privacy assessments from the Irish Data Protection Commission. The European Union is also expected to pass AI legislation by the end of the year.
There is a flurry of activity in Washington to catch up. On Tuesday, Schumer hosted an all-senator briefing with officials from the Pentagon and intelligence community to discuss the national security risks of artificial intelligence, as he works with a bipartisan group of senators to craft new AI legislation. Schumer told reporters after the session that it’s going to be “very hard” to regulate AI, as lawmakers try to balance the need for innovation with ensuring there are proper safeguards on the technology.
On Wednesday, Vice President Harris hosted a group of consumer protection advocates and civil liberties leaders at the White House for a discussion on the safety and security risks of AI.
“It is a false choice to suggest that we either can advance innovation or we protect consumers,” Harris said. “We can do both.”
https://www.washingtonpost.com/technology/2023/07/13/ftc-openai-chatgpt-sam-...
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- _______________ Maurizio Borghi Università di Torino https://www.dg.unito.it/persone/maurizio.borghi Co-Director Nexa Center for Internet & Society
My Webex room: https://unito.webex.com/meet/maurizio.borghi _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
Il giorno sab 15 lug 2023 alle ore 12:58 Fabio Alemagna <falemagn@gmail.com> ha scritto:
[...] Trovo che sia una posizione sostanzialmente cretina.
A scanso di equivoci, intendo "cretina" nell'accezione letterale del termine, ovvero "senza senso, scriteriata", etc etc, senza offesa intesa per nessuno.
Salve Fabio, On Sat, Jul 15, 2023 at 12:58:40PM +0200, Fabio Alemagna wrote:
Colgo entusiasmo per queste ipotesi e interpretazioni che la FTC fa.
Io ritengo che siano invece, al di là del fatto che si tratta appunto di ipotesi e interpretazioni, non fatti conclamati, considerazioni sostanzialmente frutto di bias cognitivi e background culturale che poca conoscenza hanno del funzionamento degli LLM.
Io ho abbastanza chiaro come funzionino i LLM e sono felice [1] che anche negli USA qualcuno inizi a comprenderne abbastanza il funzionamento da comprendere gli obiettivi di chi le sviluppa e distribuisce. Vuoi illuminarci su ciò che a tuo parere non comprendiamo?
se io mettessi online un generatore di frasi casuali, ma di senso compiuto, che prendessero spunto dall'input dell'utente, e se l'input dell'utente fosse il nome e cognome di una persona esistente, e se il software generasse, casualmente, frasi potenzialmente diffamatorie per quella persona [...] il responsabile dell'eventuale diffamazione sarei io
Certo! Se sul tuo sito compaiono frasi diffamatorie il responsabile di tale diffamazione sei ovviamente tu! Che tu abbia usato notepad o un generatore stocastico di stronzate per realizzarle è un dettaglio implementativo irrilevante: se danneggi qualcuno, ne devi rispondere. In fondo sei tu ad aver deciso, assumendotene la responsabilità, di realizzare quel software e pubblicarne l'output! Giacomo [1]: Non sono però affatto entusiasta perché non considero particolarmente credibile la FTC (con o senza Khan) anzitutto per il framework interpretativo ormai inadeguato (una prospettiva meramente economica, in cui ci si limita alla protezione dei "consumatori") e intrinsecamente imperialista (al massimo ci si preoccupa dei consumatori _americani_).
Il giorno dom 16 lug 2023 alle ore 12:39 Giacomo Tesio <giacomo@tesio.it> ha scritto:
se io mettessi online un generatore di frasi casuali, ma di senso compiuto, che prendessero spunto dall'input dell'utente, e se l'input dell'utente fosse il nome e cognome di una persona esistente, e se il software generasse, casualmente, frasi potenzialmente diffamatorie per quella persona [...] il responsabile dell'eventuale diffamazione sarei io
Certo!
Se sul tuo sito compaiono frasi diffamatorie il responsabile di tale diffamazione sei ovviamente tu!
Se sul "mio sito" *qualcun altro* mette il nome e cognome di qualcuno, se quel nome e cognome neanche esistono all'interno del data base che quel sito utilizza, non posso IO essere responsabile.
Vuoi illuminarci su ciò che a tuo parere non comprendiamo?
Da nessuna parte esiste "Giacomo Desio" nella rete neurale di un LLM. Quello è un input fornito dall'utente, che fa partire un'inferenza, che produce un output che potrà a sua volta contenere contenere quell'input *fornito dall'utente*. Ciò avviene sulla base di un algoritmo che tenta di prevedere quale "token" (tipicamente una sillaba) è più probabile che segua i token forniti in precedenza dall'utente e quelli generati dall'algoritmo stesso, sulla base dei *pattern* che sono stati estratti dai testi su cui la rete neurale è stata istruita, con un pizzico di randomness aggiunta. A seconda di quanto corretti e quanti fossero i dati su cui la rete neurale è stata istruita, il risultato sarà più o meno accurato in termini di lessico e esattezza. L'esattezza non è garantita, è solo più o meno probabile. In ogni caso, l'output dipende dall'input, e l'input lo ha fornito l'utente. Ho già più volte documentato come in molti casi interpretati come "diffamazione" da qualcuno, in realtà ChatGPT neanche sapeva chi fosse la persona a cui si stava riferendo e aveva supposto fosse un personaggio di fantasia su cui imbastire una storia, come gli era apparso l'utente avesse richiesto. Un esempio su tutti: https://www.facebook.com/angamela.oibaf/posts/pfbid0pdSKfezqqNvAjr6W1F8r92dn... Fabio
Il giorno dom 16 lug 2023 alle ore 14:21 Fabio Alemagna <falemagn@gmail.com> ha scritto:
Ho già più volte documentato come in molti casi interpretati come "diffamazione" da qualcuno, in realtà ChatGPT neanche sapeva chi fosse la persona a cui si stava riferendo e aveva supposto fosse un personaggio di fantasia su cui imbastire una storia, come gli era apparso l'utente avesse richiesto. Un esempio su tutti: https://www.facebook.com/angamela.oibaf/posts/pfbid0pdSKfezqqNvAjr6W1F8r92dn...
Aggiungo che un nome e cognome non identificano una persona univocamente. Al di là dei casi di omonimia, se io stesso inventassi una storia con un personaggio di fantasia a cui però dovessi dare un nome e cognome di una o più persone esistenti senza farlo di proposito, sarei per questo responsabile di diffamazione? Ovviamente no. La famosa clausola "ogni riferimento a persone esistenti o a fatti realmente accaduti è puramente casuale" dovrebbe dirci qualcosa. Fabio
Fabio Alemagna <falemagn@gmail.com> writes: [...]
Aggiungo che un nome e cognome non identificano una persona univocamente. Al di là dei casi di omonimia, se io stesso inventassi una storia con un personaggio di fantasia a cui però dovessi dare un nome e cognome di una o più persone esistenti senza farlo di proposito, sarei per questo responsabile di diffamazione? Ovviamente no. La famosa clausola "ogni riferimento a persone esistenti o a fatti realmente accaduti è puramente casuale" dovrebbe dirci qualcosa.
bravo, vedi che la soluzione è facile facile: basta convincere OpenAI a inserire _quel_ disclaimer in OGNI output fornito ai suoi utenti. ...però forse non basta, e per questo scusa ma ti rimando a questo messaggio: https://server-nexa.polito.it/pipermail/nexa/2023-April/050688.html e al relativo thread, del quale questo è una specie di follow-up Saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Ciao Fabio, Il 16 Luglio 2023 12:21:32 UTC, Fabio Alemagna <falemagn@gmail.com> ha scritto:
Il giorno dom 16 lug 2023 alle ore 12:39 Giacomo Tesio <giacomo@tesio.it> ha scritto:
se io mettessi online un generatore di frasi casuali, ma di senso compiuto, che prendessero spunto dall'input dell'utente, e se l'input dell'utente fosse il nome e cognome di una persona esistente, e se il software generasse, casualmente, frasi potenzialmente diffamatorie per quella persona [...] il responsabile dell'eventuale diffamazione sarei io
Certo!
Se sul tuo sito compaiono frasi diffamatorie il responsabile di tale diffamazione sei ovviamente tu!
Se sul "mio sito" *qualcun altro* mette il nome e cognome di qualcuno, se quel nome e cognome neanche esistono all'interno del data base che quel sito utilizza, non posso IO essere responsabile.
Non saresti responsabile se il software che hai scritto, a fronte di una richiesta relativa ad una persona non presente sul tuo database rispondesse sempre: "non dispongo di infornazioni sull'argomento richiesto". Se invece fornisce un output che una mente umana interpreta come informazione, alloravdi quell'output DEVI ovviamente rispondere. E la ragione è semplicissima: il tuo software automatizza ciò che faresti tu. Nel caso di un chatbot è evidente: se il sito permettesse di chattare con te e tu diffamassi qualcuno, ne dovresti rispondere. Se bastasse (dichiarare di) aver usato un automatismo per non rispondere di un reato avremmo una abrogazione di fatto del diritto penale.
Vuoi illuminarci su ciò che a tuo parere non comprendiamo?
Da nessuna parte esiste "Giacomo Desio" nella rete neurale di un LLM. Quello è un input fornito dall'utente, che fa partire un'inferenza, che produce un output che potrà a sua volta contenere contenere quell'input *fornito dall'utente*.
E davvero credi che qualcuni non l'abbia capito? L'utente è responsabile per ciò che scrive (l'input). Ma poiché non scrive il software che elabora tale e non ne pubblica l'output, non può essere considerato in alcun modo responsabile di tale output. Le responsabilità sono chiarissime e ben ripartite.
Ciò avviene sulla base di un algoritmo che tenta di prevedere quale "token" (tipicamente una sillaba) è più probabile che segua i token forniti in precedenza dall'utente e quelli generati dall'algoritmo stesso, sulla base dei *pattern* che sono stati estratti dai testi su cui la rete neurale è stata istruita, con un pizzico di randomness aggiunta.
Dettagli implementativi _irrilevanti_, peraltro spiegati in modo piuttosto confuso. Ad esempio la programmazione statistica non "estrae pattern" ma produce un software che riproduce _possibili_ correlazioni statistiche presenti nell'input, senza comprenderne la rilevanza, il significato o le relazioni. Correlazioni che da un lato possono essere del tutto casuali e dall'altro possono essere imposte dai programmatori selezionando i dati da utilizzare durante la programmazione statistica.
A seconda di quanto corretti e quanti fossero i dati su cui la rete neurale è stata istruita, il risultato sarà più o meno accurato in termini di lessico e esattezza.
L'esattezza non è garantita, è solo più o meno probabile.
Not even wrong. L'output non può essere "giusto" o "sbagiato" se non ha un significato. Se ha un significato, tale significato presuppone almeno un agente che voglia comunicarlo esprimendolo attraverso un significante costituito da simboli. In questo caso l'agente in questione è costituito dalle persone che hanno realizzato e mantengono operativo ChatGPT che è una loro espressione, ovvero OpenAI. Tutto ciò che ChatGPT "scrive" è scritto per volontà di queste persone: senza il loro lavoro, il loro hardware e la corrente che pagano, non scriverebbe alcunché. Il fatto che l'output prodotto sia interpretabile da un essere umano come vero ("esatto") o falso ("inesatto") è prova di questa volontà comunicativa di OpenAI e dunque della sua responsabilità. Se non vuole assumersi la responsabilità del significato attribuibile all'output del proprio software, OpenAI ha una sola cosa da fare: spegnerlo.
In ogni caso, l'output dipende dall'input, e l'input lo ha fornito l'utente.
In misura trascurabile. L'output di un software è sempre determinato da 3 fattori: - input - stato iniziale - struttura logica del software Se volessimo attribuire responsabilità sulla base dell'impatto di ciascun componente sull'output, dovremmo misurare i bit di entropia dell'input, quelli dello stato iniziale (i pesi delle varie matrici, le relazioni fra i diversi token etc... quello che banalizzando hai definito il "database") e i bit di entropia impressi nel software nella sua interezza. Come penso anche tu possa intuire se sai anche solo vagamente di cosa stiamo parlando, il peso percentuale dell'input è dell'ordine di 0,00...01 Naturalmente questa attribuzione di responsabilità sarebbe comunque irrazionale ed ingiusta: nessuno costringe OpenAI a includere parti dell'input nell'output, per cui deve rispondere ANCHE di tale inclusione. La responsabilità dell'output di ChatGPT è dunque totalmente di OpenAI.
Ho già più volte documentato come in molti casi interpretati come "diffamazione" da qualcuno, in realtà ChatGPT neanche sapeva chi fosse la persona
Hai scoperto l'acqua calda, Fabio. ChatGPT non sa nulla! ;-) OpenAI (che si legge Microsoft) invece sa molto bene come farti credere il contrario. Giacomo
Con rispetto parlando, non ritengo sia utile a nessuno rispondere ad argomentazioni che reputo fantagiuridiche e fantainformatiche. Fabio On Sun, Jul 16, 2023, 21:21 Giacomo Tesio <giacomo@tesio.it> wrote:
Ciao Fabio,
Il 16 Luglio 2023 12:21:32 UTC, Fabio Alemagna <falemagn@gmail.com> ha scritto:
Il giorno dom 16 lug 2023 alle ore 12:39 Giacomo Tesio <giacomo@tesio.it> ha scritto:
se io mettessi online un generatore di frasi casuali, ma di senso compiuto, che prendessero spunto dall'input dell'utente, e se l'input dell'utente fosse il nome e cognome di una persona esistente, e se il software generasse, casualmente, frasi potenzialmente diffamatorie per quella persona [...] il responsabile dell'eventuale diffamazione sarei io
Certo!
Se sul tuo sito compaiono frasi diffamatorie il responsabile di tale diffamazione sei ovviamente tu!
Se sul "mio sito" *qualcun altro* mette il nome e cognome di qualcuno, se quel nome e cognome neanche esistono all'interno del data base che quel sito utilizza, non posso IO essere responsabile.
Non saresti responsabile se il software che hai scritto, a fronte di una richiesta relativa ad una persona non presente sul tuo database rispondesse sempre: "non dispongo di infornazioni sull'argomento richiesto".
Se invece fornisce un output che una mente umana interpreta come informazione, alloravdi quell'output DEVI ovviamente rispondere.
E la ragione è semplicissima: il tuo software automatizza ciò che faresti tu.
Nel caso di un chatbot è evidente: se il sito permettesse di chattare con te e tu diffamassi qualcuno, ne dovresti rispondere.
Se bastasse (dichiarare di) aver usato un automatismo per non rispondere di un reato avremmo una abrogazione di fatto del diritto penale.
Vuoi illuminarci su ciò che a tuo parere non comprendiamo?
Da nessuna parte esiste "Giacomo Desio" nella rete neurale di un LLM. Quello è un input fornito dall'utente, che fa partire un'inferenza, che produce un output che potrà a sua volta contenere contenere quell'input *fornito dall'utente*.
E davvero credi che qualcuni non l'abbia capito?
L'utente è responsabile per ciò che scrive (l'input).
Ma poiché non scrive il software che elabora tale e non ne pubblica l'output, non può essere considerato in alcun modo responsabile di tale output.
Le responsabilità sono chiarissime e ben ripartite.
Ciò avviene sulla base di un algoritmo che tenta di prevedere quale "token" (tipicamente una sillaba) è più probabile che segua i token forniti in precedenza dall'utente e quelli generati dall'algoritmo stesso, sulla base dei *pattern* che sono stati estratti dai testi su cui la rete neurale è stata istruita, con un pizzico di randomness aggiunta.
Dettagli implementativi _irrilevanti_, peraltro spiegati in modo piuttosto confuso.
Ad esempio la programmazione statistica non "estrae pattern" ma produce un software che riproduce _possibili_ correlazioni statistiche presenti nell'input, senza comprenderne la rilevanza, il significato o le relazioni.
Correlazioni che da un lato possono essere del tutto casuali e dall'altro possono essere imposte dai programmatori selezionando i dati da utilizzare durante la programmazione statistica.
A seconda di quanto corretti e quanti fossero i dati su cui la rete neurale è stata istruita, il risultato sarà più o meno accurato in termini di lessico e esattezza.
L'esattezza non è garantita, è solo più o meno probabile.
Not even wrong.
L'output non può essere "giusto" o "sbagiato" se non ha un significato.
Se ha un significato, tale significato presuppone almeno un agente che voglia comunicarlo esprimendolo attraverso un significante costituito da simboli.
In questo caso l'agente in questione è costituito dalle persone che hanno realizzato e mantengono operativo ChatGPT che è una loro espressione, ovvero OpenAI.
Tutto ciò che ChatGPT "scrive" è scritto per volontà di queste persone: senza il loro lavoro, il loro hardware e la corrente che pagano, non scriverebbe alcunché.
Il fatto che l'output prodotto sia interpretabile da un essere umano come vero ("esatto") o falso ("inesatto") è prova di questa volontà comunicativa di OpenAI e dunque della sua responsabilità.
Se non vuole assumersi la responsabilità del significato attribuibile all'output del proprio software, OpenAI ha una sola cosa da fare: spegnerlo.
In ogni caso, l'output dipende dall'input, e l'input lo ha fornito l'utente.
In misura trascurabile.
L'output di un software è sempre determinato da 3 fattori:
- input - stato iniziale - struttura logica del software
Se volessimo attribuire responsabilità sulla base dell'impatto di ciascun componente sull'output, dovremmo misurare i bit di entropia dell'input, quelli dello stato iniziale (i pesi delle varie matrici, le relazioni fra i diversi token etc... quello che banalizzando hai definito il "database") e i bit di entropia impressi nel software nella sua interezza.
Come penso anche tu possa intuire se sai anche solo vagamente di cosa stiamo parlando, il peso percentuale dell'input è dell'ordine di 0,00...01
Naturalmente questa attribuzione di responsabilità sarebbe comunque irrazionale ed ingiusta: nessuno costringe OpenAI a includere parti dell'input nell'output, per cui deve rispondere ANCHE di tale inclusione.
La responsabilità dell'output di ChatGPT è dunque totalmente di OpenAI.
Ho già più volte documentato come in molti casi interpretati come "diffamazione" da qualcuno, in realtà ChatGPT neanche sapeva chi fosse la persona
Hai scoperto l'acqua calda, Fabio.
ChatGPT non sa nulla! ;-)
OpenAI (che si legge Microsoft) invece sa molto bene come farti credere il contrario.
Giacomo
ROTFL! :-D Il 16 Luglio 2023 21:22:09 UTC, Fabio Alemagna <falemagn@gmail.com> ha scritto:
Con rispetto parlando, non ritengo sia utile a nessuno rispondere ad argomentazioni che reputo fantagiuridiche e fantainformatiche.
Un fantargomento inconfuntabile! :-D Giacomo PS questa lista è piena di persone straordinariamente competenti sia su un piano giuridico che informatico. Dunque se puoi dimostrare l'erroneità degli argomenti che ho proposto, credo che sarebbe di grande interesse per molti (me incluso). Se non puoi, non importa. Ma non offenderti se daremo ai tuoi argomenti lo stesso peso di ogni altro fantasma. ;-)
On Sun, Jul 16, 2023, 21:21 Giacomo Tesio <giacomo@tesio.it> wrote:
Ciao Fabio,
Il 16 Luglio 2023 12:21:32 UTC, Fabio Alemagna <falemagn@gmail.com> ha scritto:
Il giorno dom 16 lug 2023 alle ore 12:39 Giacomo Tesio <giacomo@tesio.it> ha scritto:
se io mettessi online un generatore di frasi casuali, ma di senso compiuto, che prendessero spunto dall'input dell'utente, e se l'input dell'utente fosse il nome e cognome di una persona esistente, e se il software generasse, casualmente, frasi potenzialmente diffamatorie per quella persona [...] il responsabile dell'eventuale diffamazione sarei io
Certo!
Se sul tuo sito compaiono frasi diffamatorie il responsabile di tale diffamazione sei ovviamente tu!
Se sul "mio sito" *qualcun altro* mette il nome e cognome di qualcuno, se quel nome e cognome neanche esistono all'interno del data base che quel sito utilizza, non posso IO essere responsabile.
Non saresti responsabile se il software che hai scritto, a fronte di una richiesta relativa ad una persona non presente sul tuo database rispondesse sempre: "non dispongo di infornazioni sull'argomento richiesto".
Se invece fornisce un output che una mente umana interpreta come informazione, alloravdi quell'output DEVI ovviamente rispondere.
E la ragione è semplicissima: il tuo software automatizza ciò che faresti tu.
Nel caso di un chatbot è evidente: se il sito permettesse di chattare con te e tu diffamassi qualcuno, ne dovresti rispondere.
Se bastasse (dichiarare di) aver usato un automatismo per non rispondere di un reato avremmo una abrogazione di fatto del diritto penale.
Vuoi illuminarci su ciò che a tuo parere non comprendiamo?
Da nessuna parte esiste "Giacomo Desio" nella rete neurale di un LLM. Quello è un input fornito dall'utente, che fa partire un'inferenza, che produce un output che potrà a sua volta contenere contenere quell'input *fornito dall'utente*.
E davvero credi che qualcuni non l'abbia capito?
L'utente è responsabile per ciò che scrive (l'input).
Ma poiché non scrive il software che elabora tale e non ne pubblica l'output, non può essere considerato in alcun modo responsabile di tale output.
Le responsabilità sono chiarissime e ben ripartite.
Ciò avviene sulla base di un algoritmo che tenta di prevedere quale "token" (tipicamente una sillaba) è più probabile che segua i token forniti in precedenza dall'utente e quelli generati dall'algoritmo stesso, sulla base dei *pattern* che sono stati estratti dai testi su cui la rete neurale è stata istruita, con un pizzico di randomness aggiunta.
Dettagli implementativi _irrilevanti_, peraltro spiegati in modo piuttosto confuso.
Ad esempio la programmazione statistica non "estrae pattern" ma produce un software che riproduce _possibili_ correlazioni statistiche presenti nell'input, senza comprenderne la rilevanza, il significato o le relazioni.
Correlazioni che da un lato possono essere del tutto casuali e dall'altro possono essere imposte dai programmatori selezionando i dati da utilizzare durante la programmazione statistica.
A seconda di quanto corretti e quanti fossero i dati su cui la rete neurale è stata istruita, il risultato sarà più o meno accurato in termini di lessico e esattezza.
L'esattezza non è garantita, è solo più o meno probabile.
Not even wrong.
L'output non può essere "giusto" o "sbagiato" se non ha un significato.
Se ha un significato, tale significato presuppone almeno un agente che voglia comunicarlo esprimendolo attraverso un significante costituito da simboli.
In questo caso l'agente in questione è costituito dalle persone che hanno realizzato e mantengono operativo ChatGPT che è una loro espressione, ovvero OpenAI.
Tutto ciò che ChatGPT "scrive" è scritto per volontà di queste persone: senza il loro lavoro, il loro hardware e la corrente che pagano, non scriverebbe alcunché.
Il fatto che l'output prodotto sia interpretabile da un essere umano come vero ("esatto") o falso ("inesatto") è prova di questa volontà comunicativa di OpenAI e dunque della sua responsabilità.
Se non vuole assumersi la responsabilità del significato attribuibile all'output del proprio software, OpenAI ha una sola cosa da fare: spegnerlo.
In ogni caso, l'output dipende dall'input, e l'input lo ha fornito l'utente.
In misura trascurabile.
L'output di un software è sempre determinato da 3 fattori:
- input - stato iniziale - struttura logica del software
Se volessimo attribuire responsabilità sulla base dell'impatto di ciascun componente sull'output, dovremmo misurare i bit di entropia dell'input, quelli dello stato iniziale (i pesi delle varie matrici, le relazioni fra i diversi token etc... quello che banalizzando hai definito il "database") e i bit di entropia impressi nel software nella sua interezza.
Come penso anche tu possa intuire se sai anche solo vagamente di cosa stiamo parlando, il peso percentuale dell'input è dell'ordine di 0,00...01
Naturalmente questa attribuzione di responsabilità sarebbe comunque irrazionale ed ingiusta: nessuno costringe OpenAI a includere parti dell'input nell'output, per cui deve rispondere ANCHE di tale inclusione.
La responsabilità dell'output di ChatGPT è dunque totalmente di OpenAI.
Ho già più volte documentato come in molti casi interpretati come "diffamazione" da qualcuno, in realtà ChatGPT neanche sapeva chi fosse la persona
Hai scoperto l'acqua calda, Fabio.
ChatGPT non sa nulla! ;-)
OpenAI (che si legge Microsoft) invece sa molto bene come farti credere il contrario.
Giacomo
Buongiorno Fabio, per favore non dare per scontato che tu abbia compreso nella sua completezza l'argomento complesso oggetto dell'indagine della FTC mentre gli altri sono cretini Fabio Alemagna <falemagn@gmail.com> writes: [...]
L'esattezza non è garantita, è solo più o meno probabile.
In ogni caso, l'output dipende dall'input, e l'input lo ha fornito l'utente.
ma dai, per favore: l'output dipende /anche/ dall'input ma non è che "forse" il modello LLM ci mette del suo?
Ho già più volte documentato come in molti casi interpretati come "diffamazione" da qualcuno, in realtà ChatGPT neanche sapeva chi fosse
la FTC (e molti in questa lista) non stanno facendo "il processo" a ChatGPT, che in quanto software non è processabile, ma a OpenAI come io, la FTC e molti altri in questa lista e nel mondo stiamo cercando di comprendere e discutere, il problema non è /affatto/ che ChatGPT spari stronzate a caso sulle persone ma: 1. se il modello LLM viene costruito usando dati personali usati senza consenso 2. se e come i dati personali usati nella costruzione del modello possono essere cancellati o rettificati dai diretti interessati 3. come OpenAI commercializza i propri servizi basati su LLM, in particolare con riferimento alle norme che tutelano "i consumatori" da pratiche commerciali scorrette come la pubblicità ingannevole In particolare, in merito alle frasi diffamatorie sputate da ChatGPT, FTC ed altri ritengono che /probabilmente/ OpenAI NON chiarisce a sufficienza il fatto che l'output di ChatGPT è PURA FICTION, non che "talvolta è errato"; inoltre, non so se l'argomento "pura fiction" possa mettere al riparo OpenAI dalle cazzate più grosse che ChatGPT rischia di sparare, tipo "Tizio Caio, prossimo candidato alle elezioni presidenziali USA 2024, è un noto pedofilo"... a meno che OpenAI dichiari una volta per tutte che ChatGPT è... satira Saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
Buongiorno, 380°, grazie. Sulla pubblicità ingannevole, rilevo che ci sono esplicite ammissioni, da parte di OpenAI, dell'inganno e dei danni che esso genera. Ad esempio, nella System card di GPT-4, sulle "allucinazioni" (termine tra i più ingannevoli, se usato per un sistema architettonicamente incapace di distinguere il vero dal falso): "We use the term “hallucinations,” though we recognize ways this framing may suggest anthropomorphization, which in turn can lead to harms or incorrect mental models of how the model learns." Un saluto, Daniela ________________________________ Da: nexa <nexa-bounces@server-nexa.polito.it> per conto di 380° <g380@biscuolo.net> Inviato: lunedì 17 luglio 2023 10:28 A: Fabio Alemagna Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] The FTC is investigating whether ChatGPT harms consumers Buongiorno Fabio, per favore non dare per scontato che tu abbia compreso nella sua completezza l'argomento complesso oggetto dell'indagine della FTC mentre gli altri sono cretini Fabio Alemagna <falemagn@gmail.com> writes: [...]
L'esattezza non è garantita, è solo più o meno probabile.
In ogni caso, l'output dipende dall'input, e l'input lo ha fornito l'utente.
ma dai, per favore: l'output dipende /anche/ dall'input ma non è che "forse" il modello LLM ci mette del suo?
Ho già più volte documentato come in molti casi interpretati come "diffamazione" da qualcuno, in realtà ChatGPT neanche sapeva chi fosse
la FTC (e molti in questa lista) non stanno facendo "il processo" a ChatGPT, che in quanto software non è processabile, ma a OpenAI come io, la FTC e molti altri in questa lista e nel mondo stiamo cercando di comprendere e discutere, il problema non è /affatto/ che ChatGPT spari stronzate a caso sulle persone ma: 1. se il modello LLM viene costruito usando dati personali usati senza consenso 2. se e come i dati personali usati nella costruzione del modello possono essere cancellati o rettificati dai diretti interessati 3. come OpenAI commercializza i propri servizi basati su LLM, in particolare con riferimento alle norme che tutelano "i consumatori" da pratiche commerciali scorrette come la pubblicità ingannevole In particolare, in merito alle frasi diffamatorie sputate da ChatGPT, FTC ed altri ritengono che /probabilmente/ OpenAI NON chiarisce a sufficienza il fatto che l'output di ChatGPT è PURA FICTION, non che "talvolta è errato"; inoltre, non so se l'argomento "pura fiction" possa mettere al riparo OpenAI dalle cazzate più grosse che ChatGPT rischia di sparare, tipo "Tizio Caio, prossimo candidato alle elezioni presidenziali USA 2024, è un noto pedofilo"... a meno che OpenAI dichiari una volta per tutte che ChatGPT è... satira Saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
On 16/07/23 12:38, Giacomo Tesio wrote:
[1]: Non sono però affatto entusiasta perché non considero particolarmente credibile la FTC (con o senza Khan) anzitutto per il framework interpretativo ormai inadeguato (una prospettiva meramente economica, in cui ci si limita alla protezione dei "consumatori") e intrinsecamente imperialista (al massimo ci si preoccupa dei consumatori_americani_).
Lina Khan deve il suo posto di presidente della FTC a un articolo del 2017 che critica la riduzione dell'antitrust alla protezione dei consumatori, in virtù dell'influenza della scuola di Chicago. Anche se nulla assicura che la rivoluzione abbia successo,(*) la sua nomina è stata rivoluzionaria nel senso astronomico del termine. Cito da: https://www.yalelawjournal.org/note/amazons-antitrust-paradox "Focusing antitrust exclusively on consumer welfare is a mistake. For one, it betrays legislative intent, which makes clear that Congress passed antitrust laws to safeguard against **excessive concentrations of economic power**. This vision promotes a variety of aims, including the preservation of open markets, the protection of producers and consumers from monopoly abuse, and the **dispersion of political and economic control**. Secondly, focusing on consumer welfare disregards the host of other ways that excessive concentration can harm us—enabling firms to squeeze suppliers and producers, endangering system stability (for instance, by allowing companies to become too big to fail), or undermining media diversity, to name a few." (P. 739) In questa prospettiva, la protezione dei consumatori non va ridotta a una questione di prezzo, ma va intesa in una senso strutturale: “The longterm interests of consumers include product quality, variety, and innovation - factors best promoted through both a robust competitive process and open markets” (p. 739) Proprio per mostrare che l'intento originale del legislatore era *politico*, l'articolo di Lina Kahn cita il senatore John Sherman, promotore dello Sherman anti-trust act, che parla di "re", "imperatori" e "autocrati". “If we will not endure a king as a political power, we should not endure a king over the production, transportation, and sale of any of the necessities of life. If we would not submit to an emperor, we should not submit to an autocrat of trade, with power to prevent competition and to fix the price of any commodity.” (p.740) Correva l'anno 1890. Buoanotte, MCP (*) Perché, come scrive la stessa Lina Kahn, “allowing firms to amass market power makes it more difficult to meaningfully check that power when it is eventually exercised”. (p.745)
Maria Chiara Pievatolo <mariachiara.pievatolo@unipi.it> writes: [...]
In questa prospettiva, la protezione dei consumatori non va ridotta a una questione di prezzo, ma va intesa in una senso strutturale:
“The longterm interests of consumers include product quality, variety, and innovation - factors best promoted through both a robust competitive process and open markets” (p. 739)
magari mi perdo qualcosa, specialmente perché non ho letto i documenti di diferimento, ma noto che nell'elenco sopra - e **anche** nell'opera fattuale del FTC - manca completamente l'interesse cardine (cardinale) che è quello dell'interoperabilità dei servizi, ancora oggi, nel 2023, dopo quello che è successo dagli anni '90 ad oggi, dopo quello che abbiamo visto con i protocolli di rete "Windows" (SAMBA)... ancora oggi l'interoperabilitàà dei "servizi digitali", a partire dai servizi "social" e "instant messaging" è semplicemente PURA ILLUSIONE così, giusto per ricordare di cosa si potrebbe occupare /anche/ FTC [...]
(*) Perché, come scrive la stessa Lina Kahn, “allowing firms to amass market power makes it more difficult to meaningfully check that power when it is eventually exercised”. (p.745)
certo, e la soluzione è /semplicissima/: applicare norme che impediscano il monopolio dei protocolli, il fenomeno "embrace and extend" e rendano praticabile l'interoperabilità giusto per capirci, rendano possibile e dei tutto legale un client alternativo a Signal, ecc., ecc., ecc. [...] saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
On 17/07/23 12:08, 380° wrote:
Maria Chiara Pievatolo <mariachiara.pievatolo@unipi.it> writes:
[...]
In questa prospettiva, la protezione dei consumatori non va ridotta a una questione di prezzo, ma va intesa in una senso strutturale:
“The longterm interests of consumers include product quality, variety, and innovation - factors best promoted through both a robust competitive process and open markets” (p. 739)
magari mi perdo qualcosa, specialmente perché non ho letto i documenti di diferimento, ma noto che nell'elenco sopra - e **anche** nell'opera fattuale del FTC - manca completamente l'interesse cardine (cardinale) che è quello dell'interoperabilità dei servizi
Credo che questo aspetto sia una componente strutturale di un mercato aperto. E la consapevolezza teorica che la mancanza di interoperabilità altera la struttura del mercato mi pare presente già nell'articolo del 2017 (https://www.yalelawjournal.org/note/amazons-antitrust-paradox), dove si considera il caso di Kindle, e si cita, fra l'altro, Cory Doctorow (pp. 760-761 del pdf, note 259 e 269). Certo, la teoria non è ancora (o non sarà mai) la pratica, ma mi pare difficile negare che la teoria ci sia. A presto, MCP
Buongiorno, Maria Chiara Pievatolo <mariachiara.pievatolo@unipi.it> writes:
On 17/07/23 12:08, 380° wrote:
Maria Chiara Pievatolo <mariachiara.pievatolo@unipi.it> writes:
[...]
In questa prospettiva, la protezione dei consumatori non va ridotta a una questione di prezzo, ma va intesa in una senso strutturale:
“The longterm interests of consumers include product quality, variety, and innovation - factors best promoted through both a robust competitive process and open markets” (p. 739)
magari mi perdo qualcosa, specialmente perché non ho letto i documenti di diferimento,
la mia leggera disgrafia talvolta genera delle vere e proprie perle :-D
ma noto che nell'elenco sopra - e **anche** nell'opera fattuale del FTC - manca completamente l'interesse cardine (cardinale) che è quello dell'interoperabilità dei servizi
Credo che questo aspetto sia una componente strutturale di un mercato aperto.
che sarebbe meglio chiamare "libero mercato" [1], se mi posso permettere, giusto per sottolineare che dell'"apertura" ce ne dovrebbe importare il giusto
E la consapevolezza teorica che la mancanza di interoperabilità altera la struttura del mercato mi pare presente già nell'articolo del 2017 (https://www.yalelawjournal.org/note/amazons-antitrust-paradox),
prometto di studiare per intero l'articolo, per ora mi limito all'abstract e ai riferimenti citati:
dove si considera il caso di Kindle, e si cita, fra l'altro, Cory Doctorow (pp. 760-761 del pdf, note 259 e 269).
Ok grazie. 1. https://www.yalelawjournal.org/note/amazons-antitrust-paradox#_ftnref259 Ah il DRM: qui siamo molto, ma molto, oltre l'interoparabilità (negata), i DRM sono un vero e proprio mostro giuridico, ce poco altro da dire. A proposito: la FTC cosa dice dei DRM? :-O (lo ignoro, farò i miei compiti a casa) La nota 269 è a pag. 762 e non capisco bene quali riferimenti all'interoparabilità ci sono tra pag. 760 e 761 (una citazione del HTML potrebbe aiutare eventualmente, grazie!) Noto tuttavia che le pagine citate insistono sul concetto - che credo centrale nel discorso di Lina M. Khan - della "concorrenza": --8<---------------cut here---------------start------------->8--- Abstract: [...] Elements of the firm’s structure and conduct pose anticompetitive concerns—yet it has escaped antitrust scrutiny. This Note argues that the current framework in antitrust—specifically its pegging competition to “consumer welfare,” defined as short-term price effects—is unequipped to capture the architecture of market power in the modern economy. We cannot cognize the potential harms to competition posed by Amazon’s dominance if we measure competition primarily through price and output. Specifically, current doctrine underappreciates the risk of predatory pricing and how integration across distinct business lines may prove anticompetitive. [...] This dual role also enables a platform to exploit information collected on companies using its services to undermine them as competitors. This Note maps out facets of Amazon’s dominance. Doing so enables us to make sense of its business strategy, illuminates anticompetitive aspects of Amazon’s structure and conduct, and underscores deficiencies in current doctrine. [...] --8<---------------cut here---------------end--------------->8--- Da quello che capisco, quindi, anche l'interoperabilità (o l'assenza di abberrazioni giuridiche come i DRM) verrebbe considerata come elemento essenziale per perseguire la _competitività_ consentendo l'ingresso nel mercato ad altri fornitori di prodotti interoperabili. Io non credo affatto che possa essere la competitività a risolvere i problemi di un mercato _non_ libero come quello nel quale ci ritroviamo oggi, specialmente in campo hardware IT, anzi credo che ciò a cui abbiamo assistito dal 1990 ad oggi dimostri che presentare la competitività come condizione necessaria (e spesso sufficiente) per un mercato libero sia fuorviante.
Certo, la teoria non è ancora (o non sarà mai) la pratica, ma mi pare difficile negare che la teoria ci sia. A presto, MCP
Sebbene io abbia delle perplessità anche sul piano del merito (teorico), ammetto che la teoria dell'interoperabilità è ben nota a FTC, pre e post Lina M. Khan, così come a molte altre istituzioni del settore: abbiamo tonnellate di teoria. Da osservatore di lunga data del settore, mi permetto di esprimere tutta la mia /depressione/ nel constatare quanto la Praxis sia _costantemente_ così distante dalla Theoria. Grazie, 380° [1] per essere espliciti: «nel libero mercato venditori e acquirenti non si forzano o ingannano a vicenda, né sono forzati da una terza parte» (https://it.wikipedia.org/wiki/Libero_mercato) «Una caratteristica fondamentale dei mercati liberi è l'assenza di transazioni o condizioni obbligatorie (forzate) sulle transazioni.» (https://www.economia-italia.com/libero-mercato) -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
On 17/07/23 18:00, 380° wrote:
dove si considera il caso di Kindle, e si cita, fra l'altro, Cory Doctorow (pp. 760-761 del pdf, note 259 e 269).
Ok grazie.
Era 260, non 269: è la nota che menziona il termine "interoperability".
--8<---------------cut here---------------end--------------->8---
Da quello che capisco, quindi, anche l'interoperabilità (o l'assenza di abberrazioni giuridiche come i DRM) verrebbe considerata come elemento essenziale per perseguire la _competitività_ consentendo l'ingresso nel mercato ad altri fornitori di prodotti interoperabili.
Io non credo affatto che possa essere la competitività a risolvere i problemi di un mercato _non_ libero come quello nel quale ci ritroviamo oggi, specialmente in campo hardware IT, anzi credo che ciò a cui abbiamo assistito dal 1990 ad oggi dimostri che presentare la competitività come condizione necessaria (e spesso sufficiente) per un mercato libero sia fuorviante.
Come da citazioni del messaggio precedente, la dottrina antitrust che Lina Khan (e Tim Wu) restaurano è quella *politica* della prima metà del '900, per la quale il mercato libero non è una formazione "naturale", ma una costruzione *politica*. E per mantenerlo tale - e per evitare che la politica diventi, antidemocraticamente, una sovrastruttura economica - occorrono robustissimi e niente affatto teorici interventi legislativi, perfino sui prezzi. Suggerisco di dare un'occhiata alla parte storica dell'articolo e di provare a immaginare che cosa scriverebbero oggi i giornali italiani più vicini al potere se qualcuno oggi in Italia proponesse le leggi approvate negli USA nella prima metà del secolo scorso. Ho l'impressione che l'egemonia della scuola di Chicago sia ancora così forte da indurre a interpretare nei suoi termini perfino testi che la criticano esplicitamente, e che sostengono che la condizione della competizione è la struttura del mercato libero e non invece che il mercato libero è l'esito di una competizione qualsivoglia così che “[w]hat exists is ultimately the best guide to what should exist” (Khan, p. 719). A presto, MCP
Buongiorno, Maurizio. Grazie dell'analisi. Prevedibilmente, è ben più vituperata Lina Khan. Ne ha scritto ieri Cory Doctorow, con un appello finale a sostenerla, evitando il cinismo da quattro soldi: Why they're smearing Lina Khan My god, they sure hate Lina Khan. This once-in-a-generation, groundbreaking, brilliant legal scholar and fighter for the public interest, the slayer of Reaganomics, has attracted more vitriol, mockery, and dismissal than any of her predecessors in living memory. She sure must be doing something right, huh? A quick refresher. In 2017, Khan – then a law student – published Amazon's Antitrust Paradox in the Yale Law Journal. It was a brilliant, blistering analysis showing how the Reagan-era theory of antitrust (which celebrates monopolies as "efficient") had failed on its own terms, using Amazon as Exhibit A of the ways in which post-Reagan antitrust had left Americans vulnerable to corporate abuse: https://www.yalelawjournal.org/note/amazons-antitrust-paradox The paper sent seismic shocks through both legal and economic circles, and goosed the neo-Brandeisian movement (sneeringly dismissed as "hipster antitrust"). This movement is a rebuke to Reaganomics, with its celebration of monopolies, trickle-down, offshoring, corporate dark money, revolving-door regulatory capture, and companies that are simultaneously too big to fail and too big to jail. This movement has many proponents, of course – not just Khan – but Khan's careful scholarship, combined with her encyclopedic knowledge of the long-dormant statutory powers that federal agencies had to make change, and a strategy for reviving those powers to protect Americans from corporate predators made her a powerful, inspirational figure. When Joe Biden won the 2020 presidential election, he surprised everyone by appointing Khan to the FTC. It wasn't just that she had such a radical vision – it was also that she lacked the usual corporate law experience that such an appointee would normally require (experience that would ensure that the FTC was helmed by people whose default view of the world is that it should be structured and regulated by powerful, wealthy people in corporate boardrooms). Even more surprising was that Khan was made chair of the FTC, something that was only possible because a few Republican Senators broke with their party to support her candidacy: https://www.senate.gov/legislative/LIS/roll_call_votes/vote1171/vote_117_1_0... These Republicans saw in Khan an ally in their fight against "woke" Big Tech. For these senators, the problem wasn't that tech had got too big and powerful – it was that there were a few limited instances in which tech leaders failed to wield that power in the ways they preferred. The Republican project is a matter of getting turkeys to vote for Christmas by doing a lot of culture war bullshit, cruelly abusing disfavored sexual and racial minorities. This wins support from low-information voters who'll vote against their class interests and support more monopolies, more tax cuts for the rich, and more cuts to the services they rely on. But while tech leaders are 100% committed to the project of permanent oligarchic takeover of every sphere of American life, they are less full-throated in their support for hateful, cruel discrimination against disfavored minorities (in this regard, tech leaders resemble the corporate wing of the Democrats, which is where we get the "Silicon Valley is a Democratic Party stronghold" narrative). This failure to unquestioningly and unstintingly back culture war bullshit put tech leaders in the GOP's crosshairs. Some GOP politicians actually believe in the culture war bullshit, and are grossly offended that tech is "woke." Others are smart enough not to get high on their own supply, but worry that any tech obstruction in the bullshit culture wars will make it harder to get sufficient turkey votes for a big fat Christmas surprise. Biden's ceding of antitrust policy to the left wing of the party, combined with disaffected GOP senators viewing Khan as their enemy's enemy, led to Khan's historic appointment as FTC Chair. In that position, she was joined by a slate of Biden trustbusters, including Jonathan Kanter at the DoJ Antitrust Division, Tim Wu at the White House, and other important, skilled and principled fighters like Alvaro Bedoya (FTC), Rebecca Slaughter (FTC), Rohit Chopra (CFPB), and many others. Crucially, these new appointees weren't just principled, they were good at their jobs. In 2021, Tim Wu wrote an executive order for Biden that laid out 72 concrete ways in which the administration could act – with no further Congressional authorization – to blunt corporate power and insulate the American people from oligarchs' abusive and extractive practices: https://pluralistic.net/2021/08/13/post-bork-era/#manne-down Since then, the antitrust arm of the Biden administration have been fuckin' ninjas, Getting Shit Done in ways large and small, working – for the first time since Reagan – to protect Americans from predatory businesses: https://pluralistic.net/2022/10/18/administrative-competence/#i-know-stuff This is in marked contrast to the corporate Dems' champions in the administration. People like Pete Buttigieg are heralded as competent technocrats, "realists" who are too principled to peddle hopium to the base, writing checks they can't cash. All this is cover for a King Log performance, in which Buttigieg's far-reaching regulatory authority sits unused on a shelf while a million Americans are stranded over Christmas and whole towns are endangered by greedy, reckless rail barons straight out of the Gilded Age: https://pluralistic.net/2023/01/10/the-courage-to-govern/#whos-in-charge The contrast between the Biden trustbusters and their counterparts from the corporate wing is stark. While the corporate wing insists that every pitch is outside of the zone, Khan and her allies are swinging for the stands. They're trying to make life better for you and me, by declaring commercial surveillance to be an unfair business practice and thus illegal: https://pluralistic.net/2022/08/12/regulatory-uncapture/#conscious-uncouplin... And by declaring noncompete "agreements" that shackle good workers to shitty jobs to be illegal: https://pluralistic.net/2022/02/02/its-the-economy-stupid/#neofeudal And naturally, this has really pissed off all the right people: America's billionaires and their cheerleaders in the press, government, and the hive of scum and villainy that is the Big Law/thinktank industrial-complex. Take the WSJ: since Khan took office, they have published 67 vicious editorials attacking her and her policies. Khan is living rent-free in Rupert Murdoch's head. Not only that, he's given her the presidential suite! You love to see it. These attacks are worth reading, if only to see how flimsy and frivolous they are. One major subgenre is that Khan shouldn't be bringing any action against Amazon, because her groundbreaking scholarship about the company means she has a conflict of interest. Holy moly is this a stupid thing to say. The idea that the chair of an expert agency should recuse herself because she is an expert is what the physicists call not even wrong. But these attacks are even more laughable due to who they're coming from: people who have the most outrageous conflicts of interest imaginable, and who were conspicuously silent for years as the FTC's revolving door admitted the a bestiary of swamp-creatures so conflicted it's a wonder they managed to dress themselves in the morning. Writing in The American Prospect, David Dayen runs the numbers: Since the late 1990s, 31 out of 41 top FTC officials worked directly for a company that has business before the agency, with 26 of them related to the technology industry. https://prospect.org/economy/2023-06-23-attacks-lina-khans-ethics-reveal-pro... Take Christine Wilson, a GOP-appointed FTC Commissioner who quit the agency in a huff because Khan wanted to do things for the American people, and not their self-appointed oligarchic princelings. Wilson wrote an angry break-up letter to Khan that the WSJ published, presaging their concierge service for Samuel Alito: https://www.wsj.com/articles/why-im-resigning-from-the-ftc-commissioner-ftc-... For Wilson to question Khan's ethics took galactic-scale chutzpah. Wilson, after all, is a commissioner who took cash money from Bristol-Myers Squibb, then voted to approve their merger with Celgene: https://www.documentcloud.org/documents/4365601-Wilson-Christine-Smith-final... Or take Wilson's GOP FTC predecessor Josh Wright, whose incestuous relationship with the companies he oversaw at the Commission are so intimate he's practically got a Habsburg jaw. Wright went from Google to the US government and back again four times. He also lobbied the FTC on behalf of Qualcomm (a major donor to Wright's employer, George Mason’s Antonin Scalia Law School) after working "personally and substantially" while serving at the FTC. George Mason's Scalia center practically owns the revolving door, counting fourteen FTC officials among its affliates: https://campaignforaccountability.org/ttp-investigation-big-techs-backdoor-t... Since the 1990s, 31 out of 41 top FTC officials – both GOP appointed and appointees backed by corporate Dems – "worked directly for a company that has business before the agency": https://www.citizen.org/article/ftc-big-tech-revolving-door-problem-report/ The majority of FTC and DoJ antitrust lawyers who served between 2014-21 left government service and went straight to work for a Big Law firm, serving the companies they'd regulated just a few months before: https://therevolvingdoorproject.org/wp-content/uploads/2022/06/The-Revolving... Take Deborah Feinstein, formerly the head of the FTC's Bureau of Competition, now a partner at Arnold & Porter, where she's represented General Electric, NBCUniversal, Unilever, and Pepsi and a whole medicine chest's worth of pharma giants before her former subordinates at the FTC. Michael Moiseyev who was assistant manager of FTC Competition is now in charge of mergers at Weil Gotshal & Manges, working for Microsoft, Meta, and Eli Lilly. There's a whole bunch more, but Dayen reserves special notice for Andrew Smith, Trump's FTC Consumer Protection boss. Before he was put on the public payroll, Smith represented 120 clients that had business before the Commission, including "nearly every major bank in America, drug industry lobbyist PhRMA, Uber, Equifax, Amazon, Facebook, Verizon, and a variety of payday lenders": https://www.citizen.org/sites/default/files/andrew_smith_foia_appeal_respons... Before Khan, in other words, the FTC was a "conflict-of-interest assembly line, moving through corporate lawyers and industry hangers-on without resistance for decades." Khan is the first FTC head with no conflicts. This leaves her opponents in the sweaty, desperate position of inventing conflicts out of thin air. For these corporate lickspittles, Khan's "conflict" is that she has a point of view. Specifically, she thinks that the FTC should do its job. This makes grifters like Jim Jordan furious. Yesterday, Jordan grilled Khan in a hearing where he accused her of violating an ethics official's advice that she should recuse herself from Big Tech cases. This is a talking point that was created and promoted by Bloomberg: https://www.bloomberg.com/news/articles/2023-06-16/ftc-rejected-ethics-advic... That ethics official, Lorielle Pankey, did not, in fact, make this recommendation. It's simply untrue (she did say that Khan presiding over cases that she has made public statements about could be used as ammo against her, but did not say that it violated any ethical standard). But there's more to this story. Pankey herself has a gigantic conflict of interest in this case, including a stock portfolio with $15,001 and $50,000 in Meta stock (Meta is another company that has whined in print and in its briefs that it is a poor defenseless lamb being picked on by big, mean ole Lina Khan): https://www.wsj.com/articles/ethics-official-owned-meta-stock-while-recommen... Jordan called his hearing on the back of this fake scandal, and then proceeded to show his whole damned ass, even as his GOP colleagues got into a substantive and even informative dialog with Khan: https://prospect.org/power/2023-07-14-jim-jordan-misfires-attacks-lina-khan/ Mostly what came out of that hearing was news about how Khan is doing her job, working on behalf of the American people. For example, she confirmed that she's investigating OpenAI for nonconsensually harvesting a mountain of Americans' personal information: https://www.ft.com/content/8ce04d67-069b-4c9d-91bf-11649f5adc74 Other Republicans, including confirmed swamp creatures like Matt Gaetz, ended up agreeing with Khan that Amazon Ring is a privacy dumpster-fire. Nobodies like Rep TomM assie gave Khan an opening to discuss how her agency is protecting mom-and-pop grocers from giant, price-gouging, greedflation-drunk national chains. Jeff Van Drew gave her a chance to talk about the FTC's war on robocalls. Lance Gooden let her talk about her fight against horse doping. But Khan's opponents did manage to repeat a lot of the smears against her, and not just the bogus conflict-of-interest story. They also accused her of being 0-4 in her actions to block mergers, ignoring the huge number of mergers that have been called off or not initiated because M&A professionals now understand they can no longer expect these mergers to be waved through. Indeed, just last night I spoke with a friend who owns a medium-sized tech company that Meta tried to buy out, only to withdraw from the deal because their lawyers told them it would get challenged at the FTC, with an uncertain outcome. These talking points got picked up by people commenting on Judge Jacqueline Scott Corley's ruling against the FTC in the Microsoft-Activision merger. The FTC was seeking an injunction against the merger, and Corley turned them down flat. The ruling was objectively very bad. Start with the fact that Corley's son is a Microsoft employee who stands reap massive gains in his stock options if the merger goes through. But beyond this (real, non-imaginary, not manufactured conflict of interest), Corley's judgment and her remarks in court were inexcusably bad, as Matt Stoller writes: https://www.thebignewsletter.com/p/judge-rules-for-microsoft-mergers In her ruling, Corley explained that she didn't think Microsoft would abuse the market dominance they'd gain by merging their giant videogame platform and studio with one of its largest competitors. Why not? Because Microsoft's execs pinky-swore that they wouldn't abuse that power. Corely's deference to Microsoft's corporate priorities goes deeper than trusting its execs, though. In denying the FTC's motion, she stated that it would be unfair to put the merger on hold in order to have a full investigation into its competition implications because Microsoft and Activision had set a deadline of July 18 to conclude things, and Microsoft would have to pay a penalty if that deadline passed. This is surreal: a judge ruled that a corporation's radical, massive merger shouldn't be subject to full investigation because that corporation itself set an arbitrary deadline to conclude the deal before such an investigation could be concluded. That's pretty convenient for future mega-mergers – just set a short deadline and Judge Corely will tell regulators that the merger can't be investigated because the deadline is looming. And this is all about the future. As Stoller writes, Microsoft isn't exactly subtle about why it wants this merger. Its own execs said that the reason they were spending "dump trucks" of money buying games studios was to "spend Sony out of business." Now, maybe you hate Sony. Maybe you hate Activision. There's plenty of good reason to hate both – they're run by creeps who do shitty things to gamers and to their employees. But if you think that Microsoft will be better once it eliminates its competition, then you have the attention span of a goldfish on Adderall. Microsoft made exactly the same promises it made on Activision when it bought out another games studio, Zenimax – and it broke every one of those promises. Microsoft has a long, long, long history of being a brutal, abusive monopolist. It is a convicted monopolist. And its bad conduct didn't end with the browser wars. You remember how the lockdown turned all our homes into rent-free branch offices for our employers? Microsoft seized on that moment to offer our bosses keystroke-and-click level surveillance of our use of our own computers in our own homes, via its Office365 bossware product: https://pluralistic.net/2020/11/25/the-peoples-amazon/#clippys-revenge If you think a company that gave your boss a tool to spy on their employees and rank them by "productivity" as a prelude to firing them or cutting their pay is going to treat gamers or game makers well once they have "spent the competition out of business," you're a credulous sucker and you are gonna be so disappointed. The enshittification play is obvious: use investor cash to make things temporarily nice for customers and suppliers, lock both of them in – in this case, it's with a subscription-based service similar to Netflix's – and then claw all that value back until all that's left is a big pile of shit. The Microsoft case is about the future. Judge Corely doesn't take the future seriously: as she said during the trial, "All of this is for a shooter videogame." The reason Corely greenlit this merger isn't because it won't be harmful – it's because she doesn't think those harms matter. But it does, and not just because games are an art form that generate billions of dollars, employ a vast workforce, and bring pleasure to millions. It also matters because this is yet another one of the Reaganomic precedents that tacitly endorses monopolies as efficient forces for good. As Stoller writes, Corley's ruling means that "deal bankers are sharpening pencils and saying ‘Great, the government lost! We can get mergers through everywhere else.’ Basically, if you like your high medical prices, you should be cheering on Microsoft’s win today." Ronald Reagan's antitrust has colonized our brains so thoroughly that commentators were surprised when, immediately after the ruling, the FTC filed an appeal. Don't they know they've lost? the commentators said: https://gizmodo.com/ftc-files-appeal-of-microsoft-activision-deal-ruling-185... They echoed the smug words of insufferable Activision boss Mike Ybarra: "Your tax dollars at work." https://twitter.com/Qwik/status/1679277251337277440 But of course Khan is appealing. The only reason that's surprising is that Khan is working for us, the American people, not the giant corporations the FTC is supposed to be defending us from. Sure, I get that this is a major change! But she needs our backing, not our cheap cynicism. The business lobby and their pathetic Renfields have hoarded all the nice things and they don't want us to have any. Khan and her trustbuster colleagues want the opposite. There is no measure so small that the corporate world won't have a conniption over it. Take click to cancel, the FTC's perfectly reasonable proposal that if you sign up for a recurring payment subscription with a single click, you should be able to cancel it with a single click. The tooth-gnashing and garment-rending and scenery-chewing over this is wild. America's biggest companies have wheeled out their biggest guns, claiming that if they make it too easy to unsubscribe, they will lose money. In other words, they are currently making money not because people want their products, but because it's too hard to stop paying for them! https://www.theregister.com/2023/07/12/ftc_cancel_subscriptions/ We shouldn't have to tolerate this sleaze. And if we back Khan and her team, they'll protect us from these scams. Don't let them convince you to give up hope. This is the start of the fight, not the end. We're trying to reverse 40 years' worth of Reagonmics here. It won't happen overnight. There will be setbacks. But keep your eyes on the prize – this is the most exciting moment for countering corporate power and giving it back to the people in my lifetime. We owe it to ourselves, our kids and our planet to fight one. https://pluralistic.net/2023/07/14/making-good-trouble/#the-peoples-champion Buon fine settimana, Daniela ________________________________ Da: Maurizio Borghi <maurizio.borghi@unito.it> Inviato: sabato 15 luglio 2023 12:37 A: Daniela Tafani Cc: nexa@server-nexa.polito.it Oggetto: Re: [nexa] The FTC is investigating whether ChatGPT harms consumers Si può leggere qui il documento della FTC: https://www.washingtonpost.com/documents/67a7081c-c770-4f05-a39e-9d02117e50e... L'indagine ha per oggetto la possibilità che i prodotti che incorporano Large Language Models configurino pratiche sleali o ingannevoli in relazione a 1) privacy e data security e 2) danni ai consumatori, inclusi danni reputazionali (diffamazione, ecc.). Si compone di 49 "interrogazioni" e 17 richieste di documentazione, inclusa ad esempio la richiesta di documenti interni come linee guida o “dizionari” (sic) che spieghino che cosa intende OpenAI per: a) "freely and openly available data", b) "reinforcement learning from human feedback" e c) "hallucination" o "hallucinate". Tra i molti aspetti interessanti dell'indagine, c'è il fatto che la FTC sembri considerare OpenAI direttamente responsabile per i danni eventualmente provocati da un prodotto (significativamente chiamato "product" e non "service") che permette a terze parti, cioè agli utilizzatori, di generare affermazioni false o diffamatorie a loro insaputa. E ciò a dispetto degli "avvertimenti" riguardo alle c.d. allucinazioni ecc. Nella sua impostazione generale, l'investigazione mi sembra inoltre sgomberare il campo dalla distinzione tra "input" e "output" su cui si basa molta della narrativa AI-innocentista, ovvero l'argomento secondo cui l’utilizzo di training data è comunque lecito, indipendentemente dal tipo di dato e dalle modalità di utilizzo, mentre è solo a livello dell’output che può sorgere qualche responsabilità – eventualmente da “condividere” con l’utilizzatore di turno. Nell’impostazione della FTC, invece, la pratica commerciale che presiede al prodotto in questione va considerata nel suo insieme,e in relazione agli effetti complessivamente provocati sul consumatore. Infine, alcune alcune delle interrogazioni (ad es. la n. 22) riguardano in maniera dettagliata la raccolta e il trattamento di dati personali, con la richiesta di specificare le modalità impiegate da Open AI per escludere l’impiego di informazioni personali come training data. Qui la FTC da’ chiaramente per acquisito che il trattamento di dati personali come training data senza consenso sia illegale. Forse una riprova del fatto che i tanto vituperati rilievi del Garante italiano non erano così infondati? Un saluto cordiale, _______________ Maurizio Borghi Università di Torino https://www.dg.unito.it/persone/maurizio.borghi Co-Director Nexa Center for Internet & Society<https://nexa.polito.it/> Il giorno gio 13 lug 2023 alle ore 17:40 Daniela Tafani <daniela.tafani@unipi.it<mailto:daniela.tafani@unipi.it>> ha scritto: The FTC is investigating whether ChatGPT harms consumers The agency’s demand for OpenAI’s documents about AI risks mark the company’s greatest U.S. regulatory threat to date By Cat Zakrzewski<https://www.washingtonpost.com/people/cat-zakrzewski/?itid=ai_top_zakrzewski...> Updated July 13, 2023 at 10:44 a.m. EDT|Published July 13, 2023 at 6:00 a.m. EDT The Federal Trade Commission has opened an expansive investigation into OpenAI, probing whether the maker of the popular ChatGPT bot has run afoul of consumer protection laws by putting personal reputations and data at risk. The agency this week sent the San Francisco company a 20-page demand for records about how it addresses risks related to its AI models, according to a document reviewed by The Washington Post<https://www.washingtonpost.com/documents/67a7081c-c770-4f05-a39e-9d02117e50e...>. The salvo represents the most potent regulatory threat to date to OpenAI’s business in the United States, as the company goes on a global charm offensive<https://www.washingtonpost.com/technology/2023/04/09/sam-altman-openai-chatg...> to shape the future of artificial intelligence policy. Analysts have called OpenAI’s ChatGPT the fastest-growing consumer app in history, and its early success set off an arms race among Silicon Valley companies<https://www.washingtonpost.com/podcasts/post-reports/the-ai-arms-race-is-on/...> to roll out competing chatbots. The company’s chief executive, Sam Altman, has emerged as an influential figure in the debate over AI regulation, testifying on Capitol Hill<https://www.washingtonpost.com/technology/2023/05/16/sam-altman-open-ai-cong...>, dining with lawmakers and meeting with President Biden<https://www.washingtonpost.com/technology/2023/05/04/white-house-ai-ceos-mee...> and Vice President Harris. Big Tech was moving cautiously on AI. Then came ChatGPT.<https://www.washingtonpost.com/technology/2023/01/27/chatgpt-google-meta/?it...> But now the company faces a new test in Washington, where the FTC has issued multiple warnings<https://www.washingtonpost.com/technology/2023/04/25/artificial-intelligence...> that existing consumer protection laws apply to AI, even as the administration and Congress struggle to outline new regulations.<https://www.washingtonpost.com/technology/2023/06/17/congress-regulating-ai-...> Senate Majority Leader Charles E. Schumer (D-N.Y.) has predicted<https://www.washingtonpost.com/technology/2023/06/21/ai-regulation-us-senate...> that new AI legislation is months away. The FTC’s demands of OpenAI are the first indication of how it intends to enforce those warnings. If the FTC finds that a company violates consumer protection laws, it can levy fines or put a business under a consent decree<https://www.washingtonpost.com/technology/2022/09/12/mudge-twitter-ftc-conse...>, which can dictate how the company handles data. The FTC has emerged as the federal government’s top Silicon Valley cop, bringing large fines against Meta<https://www.washingtonpost.com/technology/2019/07/12/ftc-votes-approve-billi...>, Amazon <https://www.washingtonpost.com/technology/2023/05/31/amazon-alexa-ring-ftc-l...> and Twitter <https://www.washingtonpost.com/technology/2022/05/25/twitter-fine-ftc/?itid=...> for alleged violations of consumer protection laws. The FTC called on OpenAI to provide detailed descriptions of all complaints it had received of its products making “false, misleading, disparaging or harmful” statements about people. The FTC is investigating whether the company engaged in unfair or deceptive practices that resulted in “reputational harm” to consumers, according to the document. The FTC also asked the company to provide records related to a security incident that the company disclosed in March when a bug in its systems allowed some users to see payment-related information, as well as some data from other users’ chat history. The FTC is probing whether the company’s data security practices violate consumer protection laws. OpenAI said in a blog post <https://openai.com/blog/march-20-chatgpt-outage> that the number of users whose data was revealed to someone else was “extremely low.” OpenAI and the FTC did not immediately respond to requests for comment sent on Thursday morning. News of the probe comes as FTC Chair Lina Khan is likely to face a combative hearing<https://www.washingtonpost.com/politics/2023/07/12/tech-giants-racking-up-wi...> Thursday before the House Judiciary Committee, where Republican lawmakers are expected to analyze her enforcement record and accuse her of mismanaging <https://www.washingtonpost.com/technology/2023/03/09/musk-ftc-house-republic...> the agency. Khan’s ambitious plans to rein in Silicon Valley have suffered key losses in court. On Tuesday, a federal judge rejected the FTC’s attempt <https://www.washingtonpost.com/technology/2023/07/11/microsoft-activision-ft...> to block Microsoft’s $69 billion deal to buy the video game company Activision. The agency has repeatedly warned that action is coming on AI, in speeches, blog posts<https://www.ftc.gov/business-guidance/blog/2023/02/keep-your-ai-claims-check>, op-eds and news conferences. In a speech at Harvard Law School<https://www.ftc.gov/system/files/ftc_gov/pdf/Remarks-to-JOLT-4-1-2023.pdf> in April, Samuel Levine, the director of the agency’s Bureau of Consumer Protection, said the agency was prepared to be “nimble” in getting ahead of emerging threats. “The FTC welcomes innovation, but being innovative is not a license to be reckless,” Levine said. “We are prepared to use all our tools, including enforcement, to challenge harmful practices in this area.” The FTC also has issued several colorful blog posts about its approach to regulating AI, at times invoking popular science fiction movies to warn the industry against running afoul of the law. The agency has warned<https://www.washingtonpost.com/technology/2023/04/25/artificial-intelligence...> against AI scams, using generative AI to manipulate potential customers and falsely exaggerating the capabilities of AI products. Khan also participated in a news conference with Biden administration officials in April about the risk of AI discrimination. “There is no AI exemption to the laws on the books,” Khan said at that event. The FTC’s push faced swift pushback from the tech industry. Adam Kovacevich, the founder and CEO of the industry coalition Chamber of Commerce, said it’s clear that the FTC has oversight of data security and misrepresentation. But he said it’s unclear if the agency has the authority to “police defamation or the contents of ChatGPT’s results.” "AI is making headlines right now, and the FTC is continuing to put flashy cases over securing results,” he said. Among the information the FTC is seeking from Open AI is any research, testing or surveys that assess how well consumers understand “the accuracy or reliability of outputs” generated by its AI tools. The agency made extensive demands about records related to ways OpenAI’s products could generate disparaging statements, asking the company to provide records of the complaints people send about its chatbot making false statements. The agency’s focus on such fabrications comes after numerous high-profile reports of the chatbot producing incorrect information that could damage people’s reputations. Mark Walters, a radio talk show host in Georgia sued OpenAI for defamation, alleging the chabot made up legal claims against him. The lawsuit <https://www.courthousenews.com/wp-content/uploads/2023/06/walters-openai-com...> alleges that ChatGPT falsely claimed that Walters, the host of “Armed American Radio,” was accused of defrauding and embezzling funds from the Second Amendment Foundation. The response was provided in response to a question about a lawsuit about the foundation that Walters is not a party to, according to the complaint. ChatGPT also said that a lawyer had made sexually suggestive comments and attempted to touch a student on a class trip to Alaska, citing an article that it said had appeared in The Washington Post. But no such article existed, the class trip never happened and the lawyer said he was never accused of harassing a student, The Post reported previously<https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/?itid=lk_i...>. The FTC in its request also asked the company to provide extensive details about its products and the way it advertises them. It also demanded details about the policies and procedures that OpenAI takes before it releases any new product to the public, including a list of times that OpenAI held back a large language model because of safety risks. The agency also demanded a detailed description of the data that OpenAI uses to train its products, which mimic humanlike speech by ingesting text, mostly scraped from Wikipedia, Scribd and other sites across the open web. The agency also asked OpenAI to describe how it refines its models to address their tendency to “hallucinate,” making up answers <https://www.washingtonpost.com/technology/2023/05/30/ai-chatbots-chatgpt-bar...> when the models don’t know the answer to a question. OpenAI also has to turn over details about how many people were affected by the March security incident and information about all the steps it took to respond. The FTC’s records request, which is called a Civil Investigative Demand, primarily focuses on potential consumer protection abuses, but it also asks OpenAI to provide some details about how it licenses its models to other companies. Europe moves ahead on AI regulation, challenging tech giants’ power<https://www.washingtonpost.com/technology/2023/06/14/eu-parliament-approves-...> The United States has trailed other governments in drafting AI legislation and regulating the privacy risks associated with the technology. Countries within the European Union have taken steps to limit U.S. companies’ chatbots under the bloc’s privacy law, the General Data Protection Regulation. Italy temporarily blocked<https://www.washingtonpost.com/world/2023/03/31/italy-ban-chatgpt-artificial...> ChatGPT from operating there due to data privacy concerns, and Google had to postpone the launch of its chatbot Bard after receiving requests for privacy assessments from the Irish Data Protection Commission. The European Union is also expected to pass AI legislation by the end of the year. There is a flurry of activity in Washington to catch up. On Tuesday, Schumer hosted an all-senator briefing with officials from the Pentagon and intelligence community to discuss the national security risks of artificial intelligence, as he works with a bipartisan group of senators to craft new AI legislation. Schumer told reporters after the session that it’s going to be “very hard” to regulate AI, as lawmakers try to balance the need for innovation with ensuring there are proper safeguards on the technology. On Wednesday, Vice President Harris hosted a group of consumer protection advocates and civil liberties leaders at the White House for a discussion on the safety and security risks of AI. “It is a false choice to suggest that we either can advance innovation or we protect consumers,” Harris said. “We can do both.” https://www.washingtonpost.com/technology/2023/07/13/ftc-openai-chatgpt-sam-... _______________________________________________ nexa mailing list nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it> https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa -- _______________ Maurizio Borghi Università di Torino https://www.dg.unito.it/persone/maurizio.borghi Co-Director Nexa Center for Internet & Society<https://nexa.polito.it/> My Webex room: https://unito.webex.com/meet/maurizio.borghi
Lina Khan sta facendo cose egregie alla FTC. È osteggiata non solo dalla lobby delle big tech, come è ovvio, ma anche dai molti giuristi antitrust americani fedeli all’impostazione neo-liberale. Buona domenica M On Sat, 15 Jul 2023 at 13:02, Daniela Tafani <daniela.tafani@unipi.it> wrote:
Buongiorno, Maurizio.
Grazie dell'analisi.
Prevedibilmente, è ben più vituperata Lina Khan.
Ne ha scritto ieri Cory Doctorow, con un appello finale a sostenerla, evitando il cinismo da quattro soldi:
Why they're smearing Lina Khan
My god, they sure *hate* Lina Khan. This once-in-a-generation, groundbreaking, brilliant legal scholar and fighter for the public interest, the slayer of Reaganomics, has attracted more vitriol, mockery, and dismissal than any of her predecessors in living memory.
She sure must be doing something right, huh?
A quick refresher. In 2017, Khan – then a law student – published *Amazon's Antitrust Paradox* in the *Yale Law Journal*. It was a brilliant, blistering analysis showing how the Reagan-era theory of antitrust (which celebrates monopolies as "efficient") had failed on its own terms, using Amazon as Exhibit A of the ways in which post-Reagan antitrust had left Americans vulnerable to corporate abuse:
https://www.yalelawjournal.org/note/amazons-antitrust-paradox
The paper sent seismic shocks through both legal and economic circles, and goosed the neo-Brandeisian movement (sneeringly dismissed as "hipster antitrust"). This movement is a rebuke to Reaganomics, with its celebration of monopolies, trickle-down, offshoring, corporate dark money, revolving-door regulatory capture, and companies that are simultaneously too big to fail and too big to jail.
This movement has many proponents, of course – not just Khan – but Khan's careful scholarship, combined with her encyclopedic knowledge of the long-dormant statutory powers that federal agencies had to make change, and a strategy for reviving those powers to protect Americans from corporate predators made her a powerful, inspirational figure.
When Joe Biden won the 2020 presidential election, he surprised everyone by appointing Khan to the FTC. It wasn't just that she had such a radical vision – it was also that she lacked the usual corporate law experience that such an appointee would normally require (experience that would ensure that the FTC was helmed by people whose default view of the world is that it should be structured and regulated by powerful, wealthy people in corporate boardrooms).
Even more surprising was that Khan was made *chair* of the FTC, something that was only possible because a few Republican Senators broke with their party to support her candidacy:
https://www.senate.gov/legislative/LIS/roll_call_votes/vote1171/vote_117_1_0...
These Republicans saw in Khan an ally in their fight against "woke" Big Tech. For these senators, the problem wasn't that tech had got too big and powerful – it was that there were a few limited instances in which tech leaders failed to wield that power in the ways they preferred.
The Republican project is a matter of getting turkeys to vote for Christmas by doing a lot of culture war bullshit, cruelly abusing disfavored sexual and racial minorities. This wins support from low-information voters who'll vote against their class interests and support more monopolies, more tax cuts for the rich, and more cuts to the services they rely on.
But while tech leaders are 100% committed to the project of permanent oligarchic takeover of every sphere of American life, they are less full-throated in their support for hateful, cruel discrimination against disfavored minorities (in this regard, tech leaders resemble the corporate wing of the Democrats, which is where we get the "Silicon Valley is a Democratic Party stronghold" narrative).
This failure to unquestioningly and unstintingly back culture war bullshit put tech leaders in the GOP's crosshairs. Some GOP politicians actually believe in the culture war bullshit, and are grossly offended that tech is "woke." Others are smart enough not to get high on their own supply, but worry that any tech obstruction in the bullshit culture wars will make it harder to get sufficient turkey votes for a big fat Christmas surprise.
Biden's ceding of antitrust policy to the left wing of the party, combined with disaffected GOP senators viewing Khan as their enemy's enemy, led to Khan's historic appointment as FTC Chair. In that position, she was joined by a slate of Biden trustbusters, including Jonathan Kanter at the DoJ Antitrust Division, Tim Wu at the White House, and other important, skilled and principled fighters like Alvaro Bedoya (FTC), Rebecca Slaughter (FTC), Rohit Chopra (CFPB), and many others.
Crucially, these new appointees weren't just principled, they were *good at their jobs*. In 2021, Tim Wu wrote an executive order for Biden that laid out 72 concrete ways in which the administration could act – with no further Congressional authorization – to blunt corporate power and insulate the American people from oligarchs' abusive and extractive practices:
https://pluralistic.net/2021/08/13/post-bork-era/#manne-down
Since then, the antitrust arm of the Biden administration have been *fuckin' ninjas*, Getting Shit Done in ways large and small, working – for the first time since Reagan – to protect Americans from predatory businesses:
https://pluralistic.net/2022/10/18/administrative-competence/#i-know-stuff
This is in marked contrast to the corporate Dems' champions in the administration. People like Pete Buttigieg are heralded as competent technocrats, "realists" who are too principled to peddle hopium to the base, writing checks they can't cash. All this is cover for a King Log performance, in which Buttigieg's far-reaching regulatory authority sits unused on a shelf while a million Americans are stranded over Christmas and whole towns are endangered by greedy, reckless rail barons straight out of the Gilded Age:
https://pluralistic.net/2023/01/10/the-courage-to-govern/#whos-in-charge
The contrast between the Biden trustbusters and their counterparts from the corporate wing is stark. While the corporate wing insists that every pitch is outside of the zone, Khan and her allies are swinging for the stands. They're trying to make life better for you and me, by declaring commercial surveillance to be an unfair business practice and thus illegal:
https://pluralistic.net/2022/08/12/regulatory-uncapture/#conscious-uncouplin...
And by declaring noncompete "agreements" that shackle good workers to shitty jobs to be illegal:
https://pluralistic.net/2022/02/02/its-the-economy-stupid/#neofeudal
And naturally, this has *really* pissed off all the right people: America's billionaires and their cheerleaders in the press, government, and the hive of scum and villainy that is the Big Law/thinktank industrial-complex.
Take the *WSJ*: since Khan took office, they have published *67 vicious editorials* attacking her and her policies. Khan is living rent-free in Rupert Murdoch's head. Not only that, he's given her the presidential suite! You *love* to see it.
These attacks are worth reading, if only to see how flimsy and frivolous they are. One major subgenre is that Khan shouldn't be bringing any action against Amazon, because her groundbreaking scholarship about the company means she has a conflict of interest. Holy *moly* is this a stupid thing to say. The idea that the chair of an expert agency should recuse herself *because she is an expert* is what the physicists call *not even wrong.*
But these attacks are even more laughable due to who they're coming from: people who have the most outrageous conflicts of interest imaginable, and who were conspicuously silent for years as the FTC's revolving door admitted the a bestiary of swamp-creatures so conflicted it's a wonder they managed to dress themselves in the morning.
Writing in *The American Prospect*, David Dayen runs the numbers:
Since the late 1990s, 31 out of 41 top FTC officials worked directly for a company that has business before the agency, with 26 of them related to the technology industry.
https://prospect.org/economy/2023-06-23-attacks-lina-khans-ethics-reveal-pro...
Take Christine Wilson, a GOP-appointed FTC Commissioner who quit the agency in a huff because Khan wanted to do things for the American people, and not their self-appointed oligarchic princelings. Wilson wrote an angry break-up letter to Khan that the *WSJ* published, presaging their concierge service for Samuel Alito:
https://www.wsj.com/articles/why-im-resigning-from-the-ftc-commissioner-ftc-...
For Wilson to question Khan's ethics took galactic-scale chutzpah. Wilson, after all, is a commissioner who took cash money from Bristol-Myers Squibb, then voted to approve their merger with Celgene:
https://www.documentcloud.org/documents/4365601-Wilson-Christine-Smith-final...
Or take Wilson's GOP FTC predecessor Josh Wright, whose incestuous relationship with the companies he oversaw at the Commission are so intimate he's practically got a Habsburg jaw. Wright went from Google to the US government and back again *four times*. He also lobbied the FTC on behalf of Qualcomm (a major donor to Wright's employer, George Mason’s Antonin Scalia Law School) after working "personally and substantially" while serving at the FTC.
George Mason's Scalia center practically *owns* the revolving door, counting *fourteen* FTC officials among its affliates:
https://campaignforaccountability.org/ttp-investigation-big-techs-backdoor-t...
Since the 1990s, 31 out of 41 top FTC officials – both GOP appointed and appointees backed by corporate Dems – "worked directly for a company that has business before the agency":
https://www.citizen.org/article/ftc-big-tech-revolving-door-problem-report/
The *majority* of FTC and DoJ antitrust lawyers who served between 2014-21 left government service and went straight to work for a Big Law firm, serving the companies they'd regulated just a few months before:
https://therevolvingdoorproject.org/wp-content/uploads/2022/06/The-Revolving...
Take Deborah Feinstein, formerly the head of the FTC's Bureau of Competition, now a partner at Arnold & Porter, where she's represented General Electric, NBCUniversal, Unilever, and Pepsi and a whole medicine chest's worth of pharma giants before her former subordinates at the FTC. Michael Moiseyev who was assistant manager of FTC Competition is now in charge of mergers at Weil Gotshal & Manges, working for Microsoft, Meta, and Eli Lilly.
There's a whole bunch more, but Dayen reserves special notice for Andrew Smith, Trump's FTC Consumer Protection boss. Before he was put on the public payroll, Smith represented *120 clients* that had business before the Commission, including "nearly every major bank in America, drug industry lobbyist PhRMA, Uber, Equifax, Amazon, Facebook, Verizon, and a variety of payday lenders":
https://www.citizen.org/sites/default/files/andrew_smith_foia_appeal_respons...
Before Khan, in other words, the FTC was a "conflict-of-interest assembly line, moving through corporate lawyers and industry hangers-on without resistance for decades."
Khan is the first FTC head with no conflicts. This leaves her opponents in the sweaty, desperate position of inventing conflicts out of thin air.
For these corporate lickspittles, Khan's "conflict" is that she has a *point of view*. Specifically, she thinks that the FTC should do its job.
This makes grifters like Jim Jordan furious. Yesterday, Jordan grilled Khan in a hearing where he accused her of violating an ethics official's advice that she should recuse herself from Big Tech cases. This is a talking point that was created and promoted by *Bloomberg*:
https://www.bloomberg.com/news/articles/2023-06-16/ftc-rejected-ethics-advic...
That ethics official, Lorielle Pankey, did *not*, in fact, make this recommendation. It's simply untrue (she *did* say that Khan presiding over cases that she has made public statements about could be used as ammo against her, but did *not* say that it violated any ethical standard).
But there's more to this story. Pankey herself has a *gigantic* conflict of interest in this case, including a stock portfolio with $15,001 and $50,000 in Meta stock (Meta is another company that has whined in print and in its briefs that it is a poor defenseless lamb being picked on by big, mean ole Lina Khan):
https://www.wsj.com/articles/ethics-official-owned-meta-stock-while-recommen...
Jordan called his hearing on the back of this fake scandal, and then proceeded to show his whole damned ass, even as his GOP colleagues got into a substantive and even informative dialog with Khan:
https://prospect.org/power/2023-07-14-jim-jordan-misfires-attacks-lina-khan/
Mostly what came out of that hearing was news about how Khan is doing her job, working on behalf of the American people. For example, she confirmed that she's investigating OpenAI for nonconsensually harvesting a mountain of Americans' personal information:
https://www.ft.com/content/8ce04d67-069b-4c9d-91bf-11649f5adc74
Other Republicans, including confirmed swamp creatures like Matt Gaetz, ended up agreeing with Khan that Amazon Ring is a privacy dumpster-fire. Nobodies like Rep TomM assie gave Khan an opening to discuss how her agency is protecting mom-and-pop grocers from giant, price-gouging, greedflation-drunk national chains. Jeff Van Drew gave her a chance to talk about the FTC's war on robocalls. Lance Gooden let her talk about her fight against horse doping.
But Khan's opponents did manage to repeat a lot of the smears against her, and not just the bogus conflict-of-interest story. They also accused her of being 0-4 in her actions to block mergers, ignoring the *huge* number of mergers that have been called off or not initiated *because* M&A professionals now understand they can no longer expect these mergers to be waved through. Indeed, just last night I spoke with a friend who owns a medium-sized tech company that Meta tried to buy out, only to withdraw from the deal because their lawyers told them it would get challenged at the FTC, with an uncertain outcome.
These talking points got picked up by people commenting on Judge Jacqueline Scott Corley's ruling against the FTC in the Microsoft-Activision merger. The FTC was seeking an injunction against the merger, and Corley turned them down flat. The ruling was objectively *very bad*. Start with the fact that Corley's son is a Microsoft employee who stands reap massive gains in his stock options if the merger goes through.
But beyond this (real, non-imaginary, not manufactured conflict of interest), Corley's judgment and her remarks in court were *inexcusably* bad, as Matt Stoller writes:
https://www.thebignewsletter.com/p/judge-rules-for-microsoft-mergers
In her ruling, Corley explained that she didn't think Microsoft would abuse the market dominance they'd gain by merging their giant videogame platform and studio with one of its largest competitors. Why not? Because Microsoft's execs pinky-swore that they wouldn't abuse that power.
Corely's deference to Microsoft's corporate priorities goes deeper than trusting its execs, though. In denying the FTC's motion, she stated that it would be unfair to put the merger on hold in order to have a full investigation into its competition implications because Microsoft and Activision had set a deadline of July 18 to conclude things, and Microsoft would have to pay a penalty if that deadline passed.
This is surreal: a judge ruled that a corporation's radical, massive merger shouldn't be subject to full investigation because that corporation itself set an arbitrary deadline to conclude the deal before such an investigation could be concluded. That's pretty convenient for future mega-mergers – just set a short deadline and Judge Corely will tell regulators that the merger can't be investigated because the deadline is looming.
And this is all about the future. As Stoller writes, Microsoft isn't exactly subtle about why it wants this merger. Its own execs said that the reason they were spending "dump trucks" of money buying games studios was to "spend Sony out of business."
Now, maybe you hate Sony. Maybe you hate Activision. There's plenty of good reason to hate both – they're run by creeps who do shitty things to gamers and to their employees. But if you think that *Microsoft* will be better once it eliminates its competition, then you have the attention span of a goldfish on Adderall.
Microsoft made *exactly* the same promises it made on Activision when it bought out another games studio, Zenimax – and it broke every one of those promises.
Microsoft has a long, long, *long* history of being a brutal, abusive monopolist. It is a *convicted* monopolist. And its bad conduct didn't end with the browser wars. You remember how the lockdown turned all our homes into rent-free branch offices for our employers? Microsoft seized on that moment to offer our bosses keystroke-and-click level surveillance of our use of our own computers in our own homes, via its Office365 bossware product:
https://pluralistic.net/2020/11/25/the-peoples-amazon/#clippys-revenge
If you think a company that gave your boss a tool to spy on their employees and rank them by "productivity" as a prelude to firing them or cutting their pay is going to treat gamers or game makers well once they have "spent the competition out of business," you're a credulous sucker and you are gonna be *so* disappointed.
The enshittification play is obvious: use investor cash to make things temporarily nice for customers and suppliers, lock both of them in – in this case, it's with a subscription-based service similar to Netflix's – and then claw all that value back until all that's left is a big pile of shit.
The Microsoft case is about the future. Judge Corely doesn't take the future seriously: as she said during the trial, "All of this is for a shooter videogame." The reason Corely greenlit this merger isn't because it won't be harmful – it's because she doesn't think those harms matter.
But it does, and not just because games are an art form that generate billions of dollars, employ a vast workforce, and bring pleasure to millions. It also matters because this is yet another one of the Reaganomic precedents that tacitly endorses monopolies as efficient forces for good. As Stoller writes, Corley's ruling means that "deal bankers are sharpening pencils and saying ‘Great, the government lost! We can get mergers through everywhere else.’ Basically, if you like your high medical prices, you should be cheering on Microsoft’s win today."
Ronald Reagan's antitrust has colonized our brains so thoroughly that commentators were surprised when, immediately after the ruling, the FTC filed an appeal. *Don't they know they've lost?* the commentators said:
https://gizmodo.com/ftc-files-appeal-of-microsoft-activision-deal-ruling-185...
They echoed the smug words of insufferable Activision boss Mike Ybarra: "Your tax dollars at work."
https://twitter.com/Qwik/status/1679277251337277440
But *of course* Khan is appealing. The only reason that's surprising is that Khan is working for us, the American people, not the giant corporations the FTC is supposed to be defending us from. Sure, I get that this is a major change! But she needs our backing, not our cheap cynicism.
The business lobby and their pathetic Renfields have hoarded all the nice things and they don't want us to have any. Khan and her trustbuster colleagues want the opposite. There is no measure so small that the corporate world won't have a conniption over it. Take click to cancel, the FTC's perfectly reasonable proposal that if you sign up for a recurring payment subscription with a single click, you should be able to cancel it with a single click.
The tooth-gnashing and garment-rending and scenery-chewing over this is *wild*. America's biggest companies have wheeled out their biggest guns, claiming that if they make it too easy to unsubscribe, they will lose money. In other words, they are *currently* making money not because people want their products, but because it's too hard to stop paying for them!
https://www.theregister.com/2023/07/12/ftc_cancel_subscriptions/
We shouldn't have to tolerate this sleaze. And if we back Khan and her team, they'll protect us from these scams. Don't let them convince you to give up hope. This is the start of the fight, not the end. We're trying to reverse 40 years' worth of Reagonmics here. It won't happen overnight. There will be setbacks. But keep your eyes on the prize – this is the most exciting moment for countering corporate power and giving it back to the people in my lifetime. We owe it to ourselves, our kids and our planet to fight one.
https://pluralistic.net/2023/07/14/making-good-trouble/#the-peoples-champion
Buon fine settimana,
Daniela ------------------------------ *Da:* Maurizio Borghi <maurizio.borghi@unito.it> *Inviato:* sabato 15 luglio 2023 12:37 *A:* Daniela Tafani *Cc:* nexa@server-nexa.polito.it *Oggetto:* Re: [nexa] The FTC is investigating whether ChatGPT harms consumers
Si può leggere qui il documento della FTC:
https://www.washingtonpost.com/documents/67a7081c-c770-4f05-a39e-9d02117e50e...
L'indagine ha per oggetto la possibilità che i prodotti che incorporano Large Language Models configurino pratiche sleali o ingannevoli in relazione a 1) privacy e data security e 2) danni ai consumatori, inclusi danni reputazionali (diffamazione, ecc.). Si compone di 49 "interrogazioni" e 17 richieste di documentazione, inclusa ad esempio la richiesta di documenti interni come linee guida o “dizionari” (sic) che spieghino che cosa intende OpenAI per: a) "freely and openly available data", b) "reinforcement learning from human feedback" e c) "hallucination" o "hallucinate".
Tra i molti aspetti interessanti dell'indagine, c'è il fatto che la FTC sembri considerare OpenAI direttamente responsabile per i danni eventualmente provocati da un prodotto (significativamente chiamato "product" e non "service") che permette a terze parti, cioè agli utilizzatori, di generare affermazioni false o diffamatorie a loro insaputa. E ciò a dispetto degli "avvertimenti" riguardo alle c.d. allucinazioni ecc.
Nella sua impostazione generale, l'investigazione mi sembra inoltre sgomberare il campo dalla distinzione tra "input" e "output" su cui si basa molta della narrativa AI-innocentista, ovvero l'argomento secondo cui l’utilizzo di training data è comunque lecito, indipendentemente dal tipo di dato e dalle modalità di utilizzo, mentre è solo a livello dell’output che può sorgere qualche responsabilità – eventualmente da “condividere” con l’utilizzatore di turno. Nell’impostazione della FTC, invece, la pratica commerciale che presiede al prodotto in questione va considerata nel suo insieme,e in relazione agli effetti complessivamente provocati sul consumatore.
Infine, alcune alcune delle interrogazioni (ad es. la n. 22) riguardano in maniera dettagliata la raccolta e il trattamento di dati personali, con la richiesta di specificare le modalità impiegate da Open AI per escludere l’impiego di informazioni personali come training data. Qui la FTC da’ chiaramente per acquisito che il trattamento di dati personali come training data senza consenso sia illegale. Forse una riprova del fatto che i tanto vituperati rilievi del Garante italiano non erano così infondati?
Un saluto cordiale,
_______________ *Maurizio Borghi* Università di Torino https://www.dg.unito.it/persone/maurizio.borghi Co-Director Nexa Center for Internet & Society <https://nexa.polito.it/>
Il giorno gio 13 lug 2023 alle ore 17:40 Daniela Tafani < daniela.tafani@unipi.it> ha scritto:
The FTC is investigating whether ChatGPT harms consumers The agency’s demand for OpenAI’s documents about AI risks mark the company’s greatest U.S. regulatory threat to date By Cat Zakrzewski <https://www.washingtonpost.com/people/cat-zakrzewski/?itid=ai_top_zakrzewski...> Updated July 13, 2023 at 10:44 a.m. EDT|Published July 13, 2023 at 6:00 a.m. EDT The Federal Trade Commission has opened an expansive investigation into OpenAI, probing whether the maker of the popular ChatGPT bot has run afoul of consumer protection laws by putting personal reputations and data at risk.
The agency this week sent the San Francisco company a 20-page demand for records about how it addresses risks related to its AI models, according to a document reviewed by The Washington Post <https://www.washingtonpost.com/documents/67a7081c-c770-4f05-a39e-9d02117e50e...>. The salvo represents the most potent regulatory threat to date to OpenAI’s business in the United States, as the company goes on a global charm offensive <https://www.washingtonpost.com/technology/2023/04/09/sam-altman-openai-chatg...> to shape the future of artificial intelligence policy.
Analysts have called OpenAI’s ChatGPT the fastest-growing consumer app in history, and its early success set off an arms race among Silicon Valley companies <https://www.washingtonpost.com/podcasts/post-reports/the-ai-arms-race-is-on/...> to roll out competing chatbots. The company’s chief executive, Sam Altman, has emerged as an influential figure in the debate over AI regulation, testifying on Capitol Hill <https://www.washingtonpost.com/technology/2023/05/16/sam-altman-open-ai-cong...>, dining with lawmakers and meeting with President Biden <https://www.washingtonpost.com/technology/2023/05/04/white-house-ai-ceos-mee...> and Vice President Harris.
Big Tech was moving cautiously on AI. Then came ChatGPT. <https://www.washingtonpost.com/technology/2023/01/27/chatgpt-google-meta/?it...>
But now the company faces a new test in Washington, where the FTC has issued multiple warnings <https://www.washingtonpost.com/technology/2023/04/25/artificial-intelligence...> that existing consumer protection laws apply to AI, even as the administration and Congress struggle to outline new regulations. <https://www.washingtonpost.com/technology/2023/06/17/congress-regulating-ai-...> Senate Majority Leader Charles E. Schumer (D-N.Y.) has predicted <https://www.washingtonpost.com/technology/2023/06/21/ai-regulation-us-senate...> that new AI legislation is months away.
The FTC’s demands of OpenAI are the first indication of how it intends to enforce those warnings*. *If the FTC finds that a company violates consumer protection laws, it can levy fines or put a business under a consent decree <https://www.washingtonpost.com/technology/2022/09/12/mudge-twitter-ftc-conse...>, which can dictate how the company handles data. The FTC has emerged as the federal government’s top Silicon Valley cop, bringing large fines against Meta <https://www.washingtonpost.com/technology/2019/07/12/ftc-votes-approve-billi...>, Amazon <https://www.washingtonpost.com/technology/2023/05/31/amazon-alexa-ring-ftc-lawsuit-settlement/?itid=lk_inline_manual_10>and Twitter <https://www.washingtonpost.com/technology/2022/05/25/twitter-fine-ftc/?itid=lk_inline_manual_10>for alleged violations of consumer protection laws.
The FTC called on OpenAI to provide detailed descriptions of all complaints it had received of its products making “false, misleading, disparaging or harmful” statements about people. The FTC is investigating whether the company engaged in unfair or deceptive practices that resulted in “reputational harm” to consumers, according to the document.
The FTC also asked the company to provide records related to a security incident that the company disclosed in March when a bug in its systems allowed some users to see payment-related information, as well as some data from other users’ chat history. The FTC is probing whether the company’s data security practices violate consumer protection laws. OpenAI said in a blog post <https://openai.com/blog/march-20-chatgpt-outage>that the number of users whose data was revealed to someone else was “extremely low.”
OpenAI and the FTC did not immediately respond to requests for comment sent on Thursday morning.
News of the probe comes as FTC Chair Lina Khan is likely to face a combative hearing <https://www.washingtonpost.com/politics/2023/07/12/tech-giants-racking-up-wi...> Thursday before the House Judiciary Committee, where Republican lawmakers are expected to analyze her enforcement record and accuse her of mismanaging
<https://www.washingtonpost.com/technology/2023/03/09/musk-ftc-house-republicans-twitter/?itid=lk_inline_manual_16>the agency. Khan’s ambitious plans to rein in Silicon Valley have suffered key losses in court. On Tuesday, a federal judge rejected the FTC’s attempt <https://www.washingtonpost.com/technology/2023/07/11/microsoft-activision-ftc-decision/?itid=ap_catzakrzewski&itid=lk_inline_manual_16>to block Microsoft’s $69 billion deal to buy the video game company Activision.
The agency has repeatedly warned that action is coming on AI, in speeches, blog posts <https://www.ftc.gov/business-guidance/blog/2023/02/keep-your-ai-claims-check>, op-eds and news conferences. In a speech at Harvard Law School <https://www.ftc.gov/system/files/ftc_gov/pdf/Remarks-to-JOLT-4-1-2023.pdf> in April, Samuel Levine, the director of the agency’s Bureau of Consumer Protection, said the agency was prepared to be “nimble” in getting ahead of emerging threats.
“The FTC welcomes innovation, but being innovative is not a license to be reckless,” Levine said. “We are prepared to use all our tools, including enforcement, to challenge harmful practices in this area.”
The FTC also has issued several colorful blog posts about its approach to regulating AI, at times invoking popular science fiction movies to warn the industry against running afoul of the law. The agency has warned <https://www.washingtonpost.com/technology/2023/04/25/artificial-intelligence...> against AI scams, using generative AI to manipulate potential customers and falsely exaggerating the capabilities of AI products. Khan also participated in a news conference with Biden administration officials in April about the risk of AI discrimination.
“There is no AI exemption to the laws on the books,” Khan said at that event.
The FTC’s push faced swift pushback from the tech industry. Adam Kovacevich, the founder and CEO of the industry coalition Chamber of Commerce, said it’s clear that the FTC has oversight of data security and misrepresentation. But he said it’s unclear if the agency has the authority to “police defamation or the contents of ChatGPT’s results.”
"AI is making headlines right now, and the FTC is continuing to put flashy cases over securing results,” he said.
Among the information the FTC is seeking from Open AI is any research, testing or surveys that assess how well consumers understand “the accuracy or reliability of outputs” generated by its AI tools. The agency made extensive demands about records related to ways OpenAI’s products could generate disparaging statements, asking the company to provide records of the complaints people send about its chatbot making false statements.
The agency’s focus on such fabrications comes after numerous high-profile reports of the chatbot producing incorrect information that could damage people’s reputations. Mark Walters, a radio talk show host in Georgia sued OpenAI for defamation, alleging the chabot made up legal claims against him. The lawsuit <https://www.courthousenews.com/wp-content/uploads/2023/06/walters-openai-complaint-gwinnett-county.pdf>alleges that ChatGPT falsely claimed that Walters, the host of “Armed American Radio,” was accused of defrauding and embezzling funds from the Second Amendment Foundation. The response was provided in response to a question about a lawsuit about the foundation that Walters is not a party to, according to the complaint.
ChatGPT also said that a lawyer had made sexually suggestive comments and attempted to touch a student on a class trip to Alaska, citing an article that it said had appeared in The Washington Post. But no such article existed, the class trip never happened and the lawyer said he was never accused of harassing a student, The Post reported previously <https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/?itid=lk_i...> .
The FTC in its request also asked the company to provide extensive details about its products and the way it advertises them. It also demanded details about the policies and procedures that OpenAI takes before it releases any new product to the public, including a list of times that OpenAI held back a large language model because of safety risks.
The agency also demanded a detailed description of the data that OpenAI uses to train its products, which mimic humanlike speech by ingesting text, mostly scraped from Wikipedia, Scribd and other sites across the open web. The agency also asked OpenAI to describe how it refines its models to address their tendency to “hallucinate,” making up answers <https://www.washingtonpost.com/technology/2023/05/30/ai-chatbots-chatgpt-bard-trustworthy/?itid=lk_inline_manual_36>when the models don’t know the answer to a question.
OpenAI also has to turn over details about how many people were affected by the March security incident and information about all the steps it took to respond.
The FTC’s records request, which is called a Civil Investigative Demand, primarily focuses on potential consumer protection abuses, but it also asks OpenAI to provide some details about how it licenses its models to other companies.
Europe moves ahead on AI regulation, challenging tech giants’ power <https://www.washingtonpost.com/technology/2023/06/14/eu-parliament-approves-...>
The United States has trailed other governments in drafting AI legislation and regulating the privacy risks associated with the technology. Countries within the European Union have taken steps to limit U.S. companies’ chatbots under the bloc’s privacy law, the General Data Protection Regulation. Italy temporarily blocked <https://www.washingtonpost.com/world/2023/03/31/italy-ban-chatgpt-artificial...> ChatGPT from operating there due to data privacy concerns, and Google had to postpone the launch of its chatbot Bard after receiving requests for privacy assessments from the Irish Data Protection Commission. The European Union is also expected to pass AI legislation by the end of the year.
There is a flurry of activity in Washington to catch up. On Tuesday, Schumer hosted an all-senator briefing with officials from the Pentagon and intelligence community to discuss the national security risks of artificial intelligence, as he works with a bipartisan group of senators to craft new AI legislation. Schumer told reporters after the session that it’s going to be “very hard” to regulate AI, as lawmakers try to balance the need for innovation with ensuring there are proper safeguards on the technology.
On Wednesday, Vice President Harris hosted a group of consumer protection advocates and civil liberties leaders at the White House for a discussion on the safety and security risks of AI.
“It is a false choice to suggest that we either can advance innovation or we protect consumers,” Harris said. “We can do both.”
https://www.washingtonpost.com/technology/2023/07/13/ftc-openai-chatgpt-sam-... _______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
-- _______________ *Maurizio Borghi* Università di Torino https://www.dg.unito.it/persone/maurizio.borghi Co-Director Nexa Center for Internet & Society <https://nexa.polito.it/>
My Webex room: https://unito.webex.com/meet/maurizio.borghi
-- _______________ *Maurizio Borghi* Università di Torino https://www.dg.unito.it/persone/maurizio.borghi Co-Director Nexa Center for Internet & Society <https://nexa.polito.it/> My Webex room: https://unito.webex.com/meet/maurizio.borghi
Il giorno dom 16 lug 2023 alle ore 09:37 Maurizio Borghi via nexa <nexa@server-nexa.polito.it> ha scritto:
Lina Khan sta facendo cose egregie alla FTC. È osteggiata non solo dalla lobby delle big tech, come è ovvio, ma anche dai molti giuristi antitrust americani fedeli all’impostazione neo-liberale.
L'idea che semplicemente possa essere in errore non sovviene? https://www.wsj.com/articles/lina-khan-openai-chatgpt-letter-federal-trade-c...
Mi permetto solo un'osservazione rispetto al post di Maurizio, ringraziando sempre tutti per i contributi in lista, che mi pare abbiano, tutti, una parte di verità e tutti meritano attenzione (non ho letto cretinate!) Il giorno sab 15 lug 2023 alle ore 12:37 Maurizio Borghi via nexa < nexa@server-nexa.polito.it> ha scritto:
*Infine, alcune delle interrogazioni (ad es. la n. 22) riguardano in maniera dettagliata la raccolta e il trattamento di dati personali, con la richiesta di specificare le modalità impiegate da Open AI per escludere l’impiego di informazioni personali come training data. Qui la FTC da’ chiaramente per acquisito che il trattamento di dati personali come training data senza consenso sia illegale. Forse una riprova del fatto che i tanto vituperati rilievi del Garante italiano non erano così infondati?*
Credo che le "informazioni personali" di cui si preoccupa la FTC al punto 22* non siano *i "dati personali" nella amplissima accezione data dal GDPR -che ha base nel diritto fondamentale tutto made in UE alla protezione dei dati- ma siano solo le informazioni che consentono ex sé di identificare direttamente (a seconda del contesto) un soggetto -nome, cognome, indirizzo e numeri di contatto o documenti d'identità- e che sono tutelati in U.S., se non sono resi pubblici dall'interessato stesso, sul diverso presupposto del right to be let alone, la mitica "privacy". Poi noi facciamo confusione ed usiamo i due termini come sinonimi, ma non è così: sono come noto due concetti affini ma profondamente diversi. I timori della FTC sono legati al "doxing" ( https://en.wikipedia.org/wiki/Doxing), fattispecie a noi europei ignota (e solo parzialmente e faticosamente tutelata dal GDPR), che invece ha grande rilievo in U.S. (è l'incubo delle piattaforme) ove appunto non esiste un diritto fondamentale alla protezione del dato (che infatti è usato e sfruttato a man bassa) ma una forte sensibilità alla privacy (tema su cui noi europei, con la riservatezza, siamo paradossalmente un po' più in difficoltà, soprattutto nei confronti del potere statuale). Se così non fosse e la FTC avesse improvvisamente adottato il consenso per il trattamento dei dati personali intesi "all'europea", avremmo risolto tutti i problemi: non esisterebbe Google search così com'è, né il capitalismo della sorveglianza "a la Zuboff". Nel bene e nel male, potremmo chiudere il web, o quanto meno questo web. Con strepiti e brindisi a seconda delle fazioni. Escludo che l'FTC consideri illegale il training con dati personali senza consenso, ma chiede tutela sulle "informazioni personali", che sono altro. In realtà i due interventi (quello del Garante e quello della FTC) hanno poco in comune e lo spettro di competenza delle Authority non è paragonabile, come non è paragonabile la base giuridica ed il quadro normativo su cui agiscono. A chiosa pongo questa riflessione. Ormai il GDPR è utilizzato in UE e in Italia (sic!) come una clava, per perseguire fini anche meritori e reali ma del tutto estranei alla protezione del dato personale. Lo usiamo per tentare di regolare il mercato, a fini anticoncorrenziali, come grimaldello per perseguire una insana "sovranità digitale" che non promette nulla di buono sotto il profilo della riservatezza, e fin anche per regolare i contenuti illeciti o sgraditi, come forma di censura alle notizie o come viatico per diffamazioni inesistenti, in ultimo, persino nella protezione dei minori dalle brutture del web e per regolare il porno (cfr proposta Calenda), come se fosse l'unica legge che ci salverà sulla rete. Non va bene, ed il rischio è che quella fondamentale normativa, di per sé aperta e flessibile, impostata ab origine su costanti bilanciamenti di interessi contrapposti, perda il suo senso ed il suo significato e diventi davvero incompatibile con l'innovazione. Facciamo attenzione, non è un buon servizio alla comunità strumentalizzare un diritto acerbo come la protezione del dato personale per fini estranei ed eccentrici rispetto all'originario intento. CB -- *Avv. Carlo Blengino* *Via Duchessa Jolanda n. 19,* *10138 Torino (TO) - Italy* *tel. +39 011 4474035* Penalistiassociati.it
Di tutte le argomentazioni contro la protezione dei dati personali, quelle dei "liberali" sono sempre le più tragicamente divertenti. Il 17 Luglio 2023 20:29:45 UTC, Carlo Blengino <blengino@penalistiassociati.it> ha scritto:
Facciamo attenzione, non è un buon servizio alla comunità strumentalizzare un diritto acerbo come la protezione del dato personale per fini estranei ed eccentrici rispetto all'originario intento.
E qual'è questo intento originario? Lo troviamo, cristallino, nella Carta dei Diritti Fondamentali dell'Unione Europea, all'articolo 8, proprio nella sezione dedicata alle libertà: ``` Articolo 8 Protezione dei dati di carattere personale 1. Ogni persona ha diritto alla protezione dei dati di carattere personale che la riguardano. 2. Tali dati devono essere trattati secondo il principio di lealtà, per finalità determinate e in base al consenso della persona interessata o a un altro fondamento legittimo previsto dalla legge. Ogni persona ha il diritto di accedere ai dati raccolti che la riguardano e di ottenerne la rettifica. 3. Il rispetto di tali regole è soggetto al controllo di un'autorità indipendente ``` https://eur-lex.europa.eu/legal-content/IT/TXT/PDF/?uri=CELEX:12012P/TXT È da notare come, fra le libertà ivi garantite, la protezione dei dati personali sia preceduta da solamente due diritti di libertà: 1) il diritto alla libertà e alla sicurezza 2) il diritto al rispetto della propria vita privata e familiare (ovvero ciò che gli anglosassoni chiamano privacy). La protezione dei dati personali viene prima, nella Carta, del diritto di formare una famiglia, della libertà di pensiero, di coscienza e di religione, della libertà di espressione, della libertà di riunione ed associazione, della libertà di ricerca, del diritto allo studio e persino della libertà professionale, della libertà di impresa e (SACRILEGIO!!! :-D) ben prima della proprietà privata, che arriva appena al 17esimo posto! Perché? Perché in una società, la protezione dei dati personali è precondizione dell'esercizio effettivo delle libertà che la seguono.
Credo che le "informazioni personali" di cui si preoccupa la FTC al punto 22* non siano *i "dati personali" nella amplissima accezione data dal GDPR -che ha base nel diritto fondamentale tutto made in UE alla protezione dei dati- ma siano solo le informazioni che consentono ex sé di identificare direttamente (a seconda del contesto)
Questo "a seconda del contesto" significa che se un dato permette di fatto a chi lo riceve di identificare l'interessato, allora quel dato è una PII secondo la definizione USA: ``` Information which can be used to distinguish or trace an individual's identity, such as their name, social security number, biometric records, etc. alone, or when combined with other personal or identifying information which is linked or linkable to a specific individual, such as date and place of birth, mother's maiden name, etc. ``` https://web.archive.org/web/20200208192242/https://www.whitehouse.gov/sites/... Quando applicata ad un sistema di sorveglianza globale e agli enormi e dettagliatissimi database che ne derivano, questa definizione diventa del tutto equivalente a quella del GDPR: ``` ‘personal data’ means any information relating to an identified or identifiable natural person (‘data subject’); an identifiable natural person is one who can be identified, directly or indirectly, in particular by reference to an identifier such as a name, an identification number, location data, an online identifier or to one or more factors specific to the physical, physiological, genetic, mental, economic, cultural or social identity of that natural person; ``` Questo perché dato un database sufficientemente vasto e dettagliato, bastano 33 bit di entropia per identificare un individuo e 33 bit possono essere forniti facilmente da innumerevoli combinazioni univoche di dati personali descrittivi. Quindi, se è vero che esiste una differenza nelle definizioni di cui si occupa (o si dovrebbe occupare) la FTC, tale differenza risulta irrilevante nel contesto delle BigTech. Una differenza più rilevante è l'applicabilità della protezione, che negli USA riguarda esclusivamente i cittadini USA, mentre in UE riguarda anche tutti gli stranieri presenti sul territorio europeo.
Escludo che l'FTC consideri illegale il training con dati personali senza consenso, ma chiede tutela sulle "informazioni personali", che sono altro.
Sono altro solo se chi li riceve non ha gli strumenti per identificare nessuno degli interessati. Google, Microsoft, Amazon etc, questi strumenti li hanno, acquistando dati sul mercato e accumulandoli da varie fonti.
un soggetto -nome, cognome, indirizzo e numeri di contatto o documenti d'identità- e che sono tutelati in U.S., se non sono resi pubblici dall'interessato stesso, sul diverso presupposto del right to be let alone, la mitica "privacy".
Ovvero del diritto che noi riconosciamo all'articolo 7 della Carta. ;-)
Se così non fosse e la FTC avesse improvvisamente adottato il consenso per il trattamento dei dati personali intesi "all'europea", avremmo risolto tutti i problemi: non esisterebbe Google search così com'è, né il capitalismo della sorveglianza "a la Zuboff".
Ahimé, vorrei essere tanto ottimista! Ma ti faccio notare che per 3 anni il consenso dell'interessato è stata la base giuridica dichiarata da migliaia di organizzazioni senza neppure preoccuparsi di chiederlo o registrarlo!
Nel bene e nel male, potremmo chiudere il web, o quanto meno questo web.
Ehm... no Carlo, non sai cosa stai dicendo. Se domani i trasferimenti di dati personali di terze parti fossero vietati verso gli USA il Web si riorganizzerebbe nel giro di poche settimane, senza dover cambiare un singolo protocollo. In qualche mese alcune aziende chiuderebbero, molte di più aprirebbero ma la stragrande maggioranza degli utenti nemmeno se ne accorgerebbe. E questo per come è progettato il Web.
il rischio è che quella fondamentale normativa, di per sé aperta e flessibile, impostata ab origine su costanti bilanciamenti di interessi contrapposti, perda il suo senso ed il suo significato e diventi davvero incompatibile con l'innovazione.
Non dubito che tu lo creda, dopo averlo sentito ripetere a chissà quanti lobbisti. Ma è una sciocchezza. La protezione dei dati personali non è incompatibile con l'innovazione. È solo incompatibile con la riduzione della libertà personale che caratterizza certa "innovazione" made in USA o made in China. È incompatibile con le innovazioni che perseguono l'alienazione cibernetica, la riduzione degli esseri unani ad ingranaggi inconsapevoli di macchine controllate d a altri. In altri termini, è incompatibile con lo svuotamento di significato delle libertà di cui i "liberali" de noi altri, si riempono la bocca. Ma ci sono molti modi per innovare anche senza violare i diritti di milioni di persone. Giacomo
Ringrazio Carlo per la rigorosa puntualizzazione sull’interrogazione 22. Nel mio commento ho scritto troppo frettolosamente “consenso”, mentre avrei dovuto dire “consenso o altra base giuridica”. Non intendevo però suggerire che la FTC si fosse improvvisamente allineata con il diritto UE, ma solo far risaltare una significativa coincidenza di fini tra i due sistemi giuridici. E’ vero che la nozione di “personal information” non coincide con quella di dato personale nel diritto UE, e che le due nozioni riflettono fondamenti giuridici differenti. Ma non è nemmeno vero che “personal information” si limiti alle informazioni che identificano “direttamente” un individuo. E’ un concetto molto più ampio, a cui la giurisprudenza USA ha dato un’interpretazione estensiva (esattamente come accaduto da noi con “dato personale”), tanto da includere informazioni che solo combinate tra di loro possono identificare un individuo. Questa interpretazione si riflette nel testo dell’interr. 22. Peraltro, OpenAI è incorporata in California e dunque soggetta al CCPA 2018 <https://www.oag.ca.gov/privacy/ccpa>, che dà una definizione di “personal information” non molto lontana da quella del nostro “dato personale” (“information that identifies, relates to, describes, is reasonably capable of being associated with, or could reasonably be linked, directly or indirectly, with a particular consumer or household.”) Condivido in parte i dubbi espressi da Carlo sull’impiego del GDPR per dirimere questioni che riguardano diritti collettivi più che la tutela di diritti o interessi individuali. Non penso però che sia completamente fuori luogo l’utilizzo di questo strumento giuridico, con tutti i suoi limiti, almeno per ricondurre il discorso sul piano razionale dei diritti della persona. Per restare ai rilievi del Garante italiano su ChatGPT: trovo difficile immaginare in che senso il trattamento indiscriminato di dati personali per produrre in serie affermazioni fraudolente e ingannevoli su persone e cose possa costituire una legittima base giuridica per il trattamento di quei dati. Sarei lieto di essere smentito da un argomento che, per una volta, non ricorra alla parola “innovazione” (di cui proporrei una moratoria quinquennale:-). Un saluto cordiale Maurizio Il giorno lun 17 lug 2023 alle ore 22:36 Carlo Blengino < blengino@penalistiassociati.it> ha scritto:
Mi permetto solo un'osservazione rispetto al post di Maurizio, ringraziando sempre tutti per i contributi in lista, che mi pare abbiano, tutti, una parte di verità e tutti meritano attenzione (non ho letto cretinate!)
Il giorno sab 15 lug 2023 alle ore 12:37 Maurizio Borghi via nexa < nexa@server-nexa.polito.it> ha scritto:
*Infine, alcune delle interrogazioni (ad es. la n. 22) riguardano in maniera dettagliata la raccolta e il trattamento di dati personali, con la richiesta di specificare le modalità impiegate da Open AI per escludere l’impiego di informazioni personali come training data. Qui la FTC da’ chiaramente per acquisito che il trattamento di dati personali come training data senza consenso sia illegale. Forse una riprova del fatto che i tanto vituperati rilievi del Garante italiano non erano così infondati?*
Credo che le "informazioni personali" di cui si preoccupa la FTC al punto 22* non siano *i "dati personali" nella amplissima accezione data dal GDPR -che ha base nel diritto fondamentale tutto made in UE alla protezione dei dati- ma siano solo le informazioni che consentono ex sé di identificare direttamente (a seconda del contesto) un soggetto -nome, cognome, indirizzo e numeri di contatto o documenti d'identità- e che sono tutelati in U.S., se non sono resi pubblici dall'interessato stesso, sul diverso presupposto del right to be let alone, la mitica "privacy". Poi noi facciamo confusione ed usiamo i due termini come sinonimi, ma non è così: sono come noto due concetti affini ma profondamente diversi. I timori della FTC sono legati al "doxing" ( https://en.wikipedia.org/wiki/Doxing), fattispecie a noi europei ignota (e solo parzialmente e faticosamente tutelata dal GDPR), che invece ha grande rilievo in U.S. (è l'incubo delle piattaforme) ove appunto non esiste un diritto fondamentale alla protezione del dato (che infatti è usato e sfruttato a man bassa) ma una forte sensibilità alla privacy (tema su cui noi europei, con la riservatezza, siamo paradossalmente un po' più in difficoltà, soprattutto nei confronti del potere statuale).
Se così non fosse e la FTC avesse improvvisamente adottato il consenso per il trattamento dei dati personali intesi "all'europea", avremmo risolto tutti i problemi: non esisterebbe Google search così com'è, né il capitalismo della sorveglianza "a la Zuboff". Nel bene e nel male, potremmo chiudere il web, o quanto meno questo web. Con strepiti e brindisi a seconda delle fazioni. Escludo che l'FTC consideri illegale il training con dati personali senza consenso, ma chiede tutela sulle "informazioni personali", che sono altro.
In realtà i due interventi (quello del Garante e quello della FTC) hanno poco in comune e lo spettro di competenza delle Authority non è paragonabile, come non è paragonabile la base giuridica ed il quadro normativo su cui agiscono.
A chiosa pongo questa riflessione. Ormai il GDPR è utilizzato in UE e in Italia (sic!) come una clava, per perseguire fini anche meritori e reali ma del tutto estranei alla protezione del dato personale. Lo usiamo per tentare di regolare il mercato, a fini anticoncorrenziali, come grimaldello per perseguire una insana "sovranità digitale" che non promette nulla di buono sotto il profilo della riservatezza, e fin anche per regolare i contenuti illeciti o sgraditi, come forma di censura alle notizie o come viatico per diffamazioni inesistenti, in ultimo, persino nella protezione dei minori dalle brutture del web e per regolare il porno (cfr proposta Calenda), come se fosse l'unica legge che ci salverà sulla rete. Non va bene, ed il rischio è che quella fondamentale normativa, di per sé aperta e flessibile, impostata ab origine su costanti bilanciamenti di interessi contrapposti, perda il suo senso ed il suo significato e diventi davvero incompatibile con l'innovazione.
Facciamo attenzione, non è un buon servizio alla comunità strumentalizzare un diritto acerbo come la protezione del dato personale per fini estranei ed eccentrici rispetto all'originario intento.
CB
-- *Avv. Carlo Blengino* *Via Duchessa Jolanda n. 19,* *10138 Torino (TO) - Italy* *tel. +39 011 4474035* Penalistiassociati.it
-- _______________ *Maurizio Borghi* Università di Torino https://www.dg.unito.it/persone/maurizio.borghi Co-Director Nexa Center for Internet & Society <https://nexa.polito.it/> My Webex room: https://unito.webex.com/meet/maurizio.borghi
Buongiorno Maurizio, avrei un commento con relativa domanda Maurizio Borghi via nexa <nexa@server-nexa.polito.it> writes: [...]
Condivido in parte i dubbi espressi da Carlo sull’impiego del GDPR per dirimere questioni che riguardano diritti collettivi più che la tutela di diritti o interessi individuali. Non penso però che sia completamente fuori luogo l’utilizzo di questo strumento giuridico, con tutti i suoi limiti, almeno per ricondurre il discorso sul piano razionale dei diritti della persona.
dato per scontato (ci sono ancora dubbi?) che su internet sono violati /sistematicamente/ i diritti del singolo in materia di dati personali, quale potrebbe essere lo strumento giuridico per tutelare i diritti di intere collettività? Il GDPR no, siamo /quindi/ condannati ad _arrabattarci_ singolarmente, una segnalazione per volta, affinché ci vengano concessi quelli che dovrebbero essere nostri diritti o esiste uno strumento collettivo? [...]
Sarei lieto di essere smentito da un argomento che, per una volta, non ricorra alla parola “innovazione” (di cui proporrei una moratoria quinquennale:-).
giusto, dovremmo sostituirla con "debugging", intesa ala Thomas Edison 1878 circa [...] saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
quale potrebbe essere lo strumento giuridico per tutelare i diritti di intere collettività?
Penserei innazitutto al diritto della concorrenza, una volta che abbia lasciato alle spalle l'impostazione della "scuola di Chicago". Il libro di Ezrachi e Stucke citato da Daniela Tafani mostra tutto il potenziale di questo nuovo approccio al diritto antitrust. Il giorno mar 18 lug 2023 alle ore 14:39 380° <g380@biscuolo.net> ha scritto:
Buongiorno Maurizio,
avrei un commento con relativa domanda
Maurizio Borghi via nexa <nexa@server-nexa.polito.it> writes:
[...]
Condivido in parte i dubbi espressi da Carlo sull’impiego del GDPR per dirimere questioni che riguardano diritti collettivi più che la tutela di diritti o interessi individuali. Non penso però che sia completamente fuori luogo l’utilizzo di questo strumento giuridico, con tutti i suoi limiti, almeno per ricondurre il discorso sul piano razionale dei diritti della persona.
dato per scontato (ci sono ancora dubbi?) che su internet sono violati /sistematicamente/ i diritti del singolo in materia di dati personali, quale potrebbe essere lo strumento giuridico per tutelare i diritti di intere collettività? Il GDPR no, siamo /quindi/ condannati ad _arrabattarci_ singolarmente, una segnalazione per volta, affinché ci vengano concessi quelli che dovrebbero essere nostri diritti o esiste uno strumento collettivo?
[...]
Sarei lieto di essere smentito da un argomento che, per una volta, non ricorra alla parola “innovazione” (di cui proporrei una moratoria quinquennale:-).
giusto, dovremmo sostituirla con "debugging", intesa ala Thomas Edison 1878 circa
[...]
saluti, 380°
-- 380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
-- _______________ *Maurizio Borghi* Università di Torino https://www.dg.unito.it/persone/maurizio.borghi Co-Director Nexa Center for Internet & Society <https://nexa.polito.it/> My Webex room: https://unito.webex.com/meet/maurizio.borghi
non "nuovo", "originario" approccio all'Antitrust bellissima da leggere la sentenza US vs. Columbia Steel del 1948 https://blog.quintarelli.it/2014/09/internet-e-lacciaio-del-21esimo-secolo/ veramente una lettura illuminante era lo spirito che guidava la creazione dello sherman act https://www.britannica.com/event/Sherman-Antitrust-Act e l'idea della "curse of bigness" di Brandeis https://constitutioncenter.org/blog/the-curse-of-bigness Dal "too big to fail" al "too big to jail" e' un attimo... On 18/07/23 15:59, Maurizio Borghi via nexa wrote:
quale potrebbe essere lo strumento giuridico per tutelare i diritti di intere collettività?
Penserei innazitutto al diritto della concorrenza, una volta che abbia lasciato alle spalle l'impostazione della "scuola di Chicago". Il libro di Ezrachi e Stucke citato da Daniela Tafani mostra tutto il potenziale di questo nuovo approccio al diritto antitrust.
Il giorno mar 18 lug 2023 alle ore 14:39 380° <g380@biscuolo.net <mailto:g380@biscuolo.net>> ha scritto:
Buongiorno Maurizio,
avrei un commento con relativa domanda
Maurizio Borghi via nexa <nexa@server-nexa.polito.it <mailto:nexa@server-nexa.polito.it>> writes:
[...]
> Condivido in parte i dubbi espressi da Carlo sull’impiego del GDPR per > dirimere questioni che riguardano diritti collettivi più che la tutela di > diritti o interessi individuali. Non penso però che sia completamente fuori > luogo l’utilizzo di questo strumento giuridico, con tutti i suoi limiti, > almeno per ricondurre il discorso sul piano razionale dei diritti della > persona.
dato per scontato (ci sono ancora dubbi?) che su internet sono violati /sistematicamente/ i diritti del singolo in materia di dati personali, quale potrebbe essere lo strumento giuridico per tutelare i diritti di intere collettività? Il GDPR no, siamo /quindi/ condannati ad _arrabattarci_ singolarmente, una segnalazione per volta, affinché ci vengano concessi quelli che dovrebbero essere nostri diritti o esiste uno strumento collettivo?
[...]
> Sarei lieto di essere smentito da un argomento che, per una volta, non > ricorra alla parola “innovazione” (di cui proporrei una moratoria > quinquennale:-).
giusto, dovremmo sostituirla con "debugging", intesa ala Thomas Edison 1878 circa
[...]
saluti, 380°
-- 380° (Giovanni Biscuolo public alter ego)
«Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché»
Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org <https://stallmansupport.org>>.
-- _______________ *Maurizio Borghi* Università di Torino https://www.dg.unito.it/persone/maurizio.borghi <https://www.dg.unito.it/persone/maurizio.borghi> Co-Director Nexa Center for Internet & Society <https://nexa.polito.it/>
My Webex room: https://unito.webex.com/meet/maurizio.borghi <https://unito.webex.com/meet/maurizio.borghi>
_______________________________________________ nexa mailing list nexa@server-nexa.polito.it https://server-nexa.polito.it/cgi-bin/mailman/listinfo/nexa
On 18/07/23 16:08, Stefano Quintarelli wrote:
non "nuovo", "originario" approccio all'Antitrust
bellissima da leggere la sentenza US vs. Columbia Steel del 1948 https://blog.quintarelli.it/2014/09/internet-e-lacciaio-del-21esimo-secolo/ veramente una lettura illuminante
Citata anche da Lina Kahn nel solito https://www.yalelawjournal.org/note/amazons-antitrust-paradox (pagina 742 della versione PDF) While the vigor and tenor of enforcement varied, there was an overarching understanding that antitrust served to protect what Justice Louis Brandeis called “industrial liberty.”170 Key to this vision was ***the recognition that excessive concentrations of private power posed a public threat, empowering the interests of a few to steer collective outcomes***. “Power that controls the economy should be in the hands of elected representatives of the people, not in the hands of an industrial oligarchy,” Justice William O. Douglas wrote.171 ***Decentralizing this power would ensure that “the fortunes of the people will not be dependent on the whim or caprice, the political prejudice, the emotional stability of a few self-appointed men.”172*** [gli asterischi sono miei] Correva l'anno 1948. Per rendere il testo attuale basta mettere "Elon Musk" al posto di "a few self-appointed men". Come ricorda Tim Wu (The Curse of Bigness, 2018, III), lo Sherman Anti-Trust Act rimase per più di dieci anni quasi lettera morta. Nel 1901 però il presidente William McKinley, liberista, fu ucciso da un anarchico. Lo sostituì il vicepresidente Theodore Roosevelt, "the trust-buster", che cominciò a suonare tutt'altra musica. La storia cammina in una nuvola di accidentalità così fitta che occorre una buona dose di presunzione propagandistica per parlare, da filosofi della storia a propria insaputa, di inevitabilità (tecnologica). A presto, MCP
Buongiorno, solo una chiosa sul termine "innovazione": mi pare ormai condiviso dalla comunità scientifica che dell'innovazione si danno molti percorsi possibili (a meno di non volerla inserire, come propongono alcuni multimiliardari, in un messianesimo che, in prosa, è una filosofia della storia con assunti metafisici impegnativi) e che qualcuno sceglie tra direzioni alternative dell'innovazione. Nella letteratura più recente, le diverse direzioni dell'innovazione sono analizzate e valutate in relazione, tra gli altri, alla produttività, al modello di business delle grandi aziende e al grado di disuguaglianza che assecondano o generano. Si parla di "innovazione tossica" quando la scelta della direzione dell'innovazione sia effettuata da aziende monopoliste sulla sola base della compatibilità con il loro modello di business, strangolando nella culla qualsiasi altra innovazione. Una simile innovazione è definita "tossica" in quanto estrae e distrugge valore, anziché produrlo. Il rispetto dei diritti giuridicamente tutelati non è incompatibile tout court con l'innovazione, ma solo con il modello di business delle aziende che, in questo momento, hanno il potere di guidare l'innovazione. Tra i libri più recenti che si occupano di questo tema, segnalo * J. Stilgoe, Who’s Driving Innovation? New Technologies and the Collaborative State, Cham, Palgrave Macmillan, 2020. * A. Ezrachi, M.E. Stucke, How Big-Tech Barons Smash Innovation—and How to Strike Back, HarperCollins, 2022. * D. Acemoglu, S. Johnson, Power and Progress: our thousand-year struggle over technology and prosperity, New York, PublicAffairs, 2023. Un saluto, Daniela ________________________________ Da: Carlo Blengino <blengino@penalistiassociati.it> Inviato: lunedì 17 luglio 2023 22:29 A: Maurizio Borghi Cc: Daniela Tafani; nexa@server-nexa.polito.it Oggetto: Re: [nexa] The FTC is investigating whether ChatGPT harms consumers Mi permetto solo un'osservazione rispetto al post di Maurizio, ringraziando sempre tutti per i contributi in lista, che mi pare abbiano, tutti, una parte di verità e tutti meritano attenzione (non ho letto cretinate!) Il giorno sab 15 lug 2023 alle ore 12:37 Maurizio Borghi via nexa <nexa@server-nexa.polito.it<mailto:nexa@server-nexa.polito.it>> ha scritto: Infine, alcune delle interrogazioni (ad es. la n. 22) riguardano in maniera dettagliata la raccolta e il trattamento di dati personali, con la richiesta di specificare le modalità impiegate da Open AI per escludere l’impiego di informazioni personali come training data. Qui la FTC da’ chiaramente per acquisito che il trattamento di dati personali come training data senza consenso sia illegale. Forse una riprova del fatto che i tanto vituperati rilievi del Garante italiano non erano così infondati? Credo che le "informazioni personali" di cui si preoccupa la FTC al punto 22 non siano i "dati personali" nella amplissima accezione data dal GDPR -che ha base nel diritto fondamentale tutto made in UE alla protezione dei dati- ma siano solo le informazioni che consentono ex sé di identificare direttamente (a seconda del contesto) un soggetto -nome, cognome, indirizzo e numeri di contatto o documenti d'identità- e che sono tutelati in U.S., se non sono resi pubblici dall'interessato stesso, sul diverso presupposto del right to be let alone, la mitica "privacy". Poi noi facciamo confusione ed usiamo i due termini come sinonimi, ma non è così: sono come noto due concetti affini ma profondamente diversi. I timori della FTC sono legati al "doxing" (https://en.wikipedia.org/wiki/Doxing), fattispecie a noi europei ignota (e solo parzialmente e faticosamente tutelata dal GDPR), che invece ha grande rilievo in U.S. (è l'incubo delle piattaforme) ove appunto non esiste un diritto fondamentale alla protezione del dato (che infatti è usato e sfruttato a man bassa) ma una forte sensibilità alla privacy (tema su cui noi europei, con la riservatezza, siamo paradossalmente un po' più in difficoltà, soprattutto nei confronti del potere statuale). Se così non fosse e la FTC avesse improvvisamente adottato il consenso per il trattamento dei dati personali intesi "all'europea", avremmo risolto tutti i problemi: non esisterebbe Google search così com'è, né il capitalismo della sorveglianza "a la Zuboff". Nel bene e nel male, potremmo chiudere il web, o quanto meno questo web. Con strepiti e brindisi a seconda delle fazioni. Escludo che l'FTC consideri illegale il training con dati personali senza consenso, ma chiede tutela sulle "informazioni personali", che sono altro. In realtà i due interventi (quello del Garante e quello della FTC) hanno poco in comune e lo spettro di competenza delle Authority non è paragonabile, come non è paragonabile la base giuridica ed il quadro normativo su cui agiscono. A chiosa pongo questa riflessione. Ormai il GDPR è utilizzato in UE e in Italia (sic!) come una clava, per perseguire fini anche meritori e reali ma del tutto estranei alla protezione del dato personale. Lo usiamo per tentare di regolare il mercato, a fini anticoncorrenziali, come grimaldello per perseguire una insana "sovranità digitale" che non promette nulla di buono sotto il profilo della riservatezza, e fin anche per regolare i contenuti illeciti o sgraditi, come forma di censura alle notizie o come viatico per diffamazioni inesistenti, in ultimo, persino nella protezione dei minori dalle brutture del web e per regolare il porno (cfr proposta Calenda), come se fosse l'unica legge che ci salverà sulla rete. Non va bene, ed il rischio è che quella fondamentale normativa, di per sé aperta e flessibile, impostata ab origine su costanti bilanciamenti di interessi contrapposti, perda il suo senso ed il suo significato e diventi davvero incompatibile con l'innovazione. Facciamo attenzione, non è un buon servizio alla comunità strumentalizzare un diritto acerbo come la protezione del dato personale per fini estranei ed eccentrici rispetto all'originario intento. CB -- Avv. Carlo Blengino Via Duchessa Jolanda n. 19, 10138 Torino (TO) - Italy tel. +39 011 4474035 Penalistiassociati.it
Buongiorno, Carlo Blengino <blengino@penalistiassociati.it> writes: [...]
A chiosa pongo questa riflessione. Ormai il GDPR è utilizzato in UE e in Italia (sic!) come una clava, per
[...]
Non va bene, ed il rischio è che quella fondamentale normativa, di per sé aperta e flessibile, impostata ab origine su costanti bilanciamenti di interessi contrapposti, perda il suo senso ed il suo significato e diventi davvero incompatibile con l'innovazione.
questo è semplicemente falso e viene detto per /ogni/ norma che tenta di arginare lo strapotere del complesso militare-industriale in campo cibernetico (ad esempio viene detto anche dai sostenitori della necessità dei DRM) semmai, sarebbe vero il contrario: una (re)implementazione di internet e dell'informatica intera (altro che del web) che rispetti le 4 libertà fondamentali del software e i diritti fondamentali delle persone relativi ai propri dati personali (alla USA o alla EU fa davvero differenza?) favorirebbe l'innovazione, invece che questa desolazione tecnologica della quale siamo _ostaggi_. quella che ci stanno /infliggendo/ non è innovazione, so quello che dico: dagli anni '90 del secolo scorso siamo letteralmente inondati di propaganda e lobbying a senso unico sulla /inevitabilità/ della tecnologia /fatta così/... male; nel frattempo le vere innovazioni, che ci sono, passano completamente inosservate e sono /soffocate/ dallo strapotere di chi determina la politica tecnologica, cioè il complesso militare-industriale saggiamente distribuito tra USA e Cina. ...non c'è ovviamente solo la undone science, c'è anche l'undone technology. [...] saluti, 380° -- 380° (Giovanni Biscuolo public alter ego) «Noi, incompetenti come siamo, non abbiamo alcun titolo per suggerire alcunché» Disinformation flourishes because many people care deeply about injustice but very few check the facts. Ask me about <https://stallmansupport.org>.
participants (8)
-
380° -
Carlo Blengino -
Daniela Tafani -
Fabio Alemagna -
Giacomo Tesio -
Maria Chiara Pievatolo -
Maurizio Borghi -
Stefano Quintarelli