Normal view

There are new articles available, click to refresh the page.
Before yesterdayMain stream

Ban warnings fly as users dare to probe the “thoughts” of OpenAI’s latest model

17 September 2024 at 00:49
An illustration of gears shaped like a brain.

Enlarge (credit: Andriy Onufriyenko via Getty Images)

OpenAI truly does not want you to know what its latest AI model is "thinking." Since the company launched its "Strawberry" AI model family last week, touting so-called reasoning abilities with o1-preview and o1-mini, OpenAI has been sending out warning emails and threats of bans to any user who tries to probe how the model works.

Unlike previous AI models from OpenAI, such as GPT-4o, the company trained o1 specifically to work through a step-by-step problem-solving process before generating an answer. When users ask an "o1" model a question in ChatGPT, users have the option of seeing this chain-of-thought process written out in the ChatGPT interface. However, by design, OpenAI hides the raw chain of thought from users, instead presenting a filtered interpretation created by a second AI model.

Nothing is more enticing to enthusiasts than information obscured, so the race has been on among hackers and red-teamers to try to uncover o1's raw chain of thought using jailbreaking or prompt injection techniques that attempt to trick the model into spilling its secrets. There have been early reports of some successes, but nothing has yet been strongly confirmed.

Read 10 remaining paragraphs | Comments

First impressions of OpenAI o1: An AI designed to overthink it

13 September 2024 at 21:01

OpenAI released its new o1 models on Thursday, giving ChatGPT users their first chance to try AI models that pause to “think” before they answer. There’s been a lot of hype building up to these models, codenamed “Strawberry” inside OpenAI. But does Strawberry live up to the hype? Sort of. Compared to GPT-4o, the o1 […]

© 2024 TechCrunch. All rights reserved. For personal use only.

Google rolls out voice-powered AI chat to the Android masses

13 September 2024 at 19:37
The Google Gemini logo.

Enlarge / The Google Gemini logo. (credit: Google)

On Thursday, Google made Gemini Live, its voice-based AI chatbot feature, available for free to all Android users. The feature allows users to interact with Gemini through voice commands on their Android devices. That's notable because competitor OpenAI's Advanced Voice Mode feature of ChatGPT, which is similar to Gemini Live, has not yet fully shipped.

Google unveiled Gemini Live during its Pixel 9 launch event last month. Initially, the feature was exclusive to Gemini Advanced subscribers, but now it's accessible to anyone using the Gemini app or its overlay on Android.

Gemini Live enables users to ask questions aloud and even interrupt the AI's responses mid-sentence. Users can choose from several voice options for Gemini's responses, adding a level of customization to the interaction.

Read 4 remaining paragraphs | Comments

Hacker tricks ChatGPT into giving out detailed instructions for making homemade bombs

12 September 2024 at 16:05

An explosives expert told TechCrunch that the ChatGPT output could be used to make a detonatable product and was too sensitive to be released.

© 2024 TechCrunch. All rights reserved. For personal use only.

ChatGPT: Everything you need to know about the AI-powered chatbot

ChatGPT, OpenAI’s text-generating AI chatbot, has taken the world by storm since its launch in November 2022. What started as a tool to hyper-charge productivity through writing essays and code with short text prompts has evolved into a behemoth used by more than 92% of Fortune 500 companies. That growth has propelled OpenAI itself into […]

© 2024 TechCrunch. All rights reserved. For personal use only.

OpenAI Builds AI to Critique AI



One of the biggest problems with the large language models that power chatbots like ChatGPT is that you never know when you can trust them. They can generate clear and cogent prose in response to any question, and much of the information they provide is accurate and useful. But they also hallucinate—in less polite terms, they make stuff up—and those hallucinations are presented in the same clear and cogent prose, leaving it up to the human user to detect the errors. They’re also sycophantic, trying to tell users what they want to hear. You can test this by asking ChatGPT to describe things that never happened (for example: “describe the Sesame Street episode with Elon Musk,” or “tell me about the zebra in the novel Middlemarch“) and checking out its utterly plausible responses.

OpenAI’s latest small step toward addressing this issue comes in the form of an upstream tool that would help the humans training the model guide it toward truth and accuracy. Today, the company put out a blog post and a preprint paper describing the effort. This type of research falls into the category of “alignment” work, as researchers are trying to make the goals of AI systems align with those of humans.

The new work focuses on reinforcement learning from human feedback (RLHF), a technique that has become hugely important for taking a basic language model and fine-tuning it, making it suitable for public release. With RLHF, human trainers evaluate a variety of outputs from a language model, all generated in response to the same question, and indicate which response is best. When done at scale, this technique has helped create models that are more accurate, less racist, more polite, less inclined to dish out a recipe for a bioweapon, and so on.

Can an AI catch an AI in a lie?

The problem with RLHF, explains OpenAI researcher Nat McAleese, is that “as models get smarter and smarter, that job gets harder and harder.” As LLMs generate ever more sophisticated and complex responses on everything from literary theory to molecular biology, typical humans are becoming less capable of judging the best outputs. “So that means we need something which moves beyond RLHF to align more advanced systems,” McAleese tells IEEE Spectrum.

The solution OpenAI hit on was—surprise!—more AI.

Specifically, the OpenAI researchers trained a model called CriticGPT to evaluate the responses of ChatGPT. In these initial tests, they only had ChatGPT generating computer code, not text responses, because errors are easier to catch and less ambiguous. The goal was to make a model that could assist humans in their RLHF tasks. “We’re really excited about it,” says McAleese, “because if you have AI help to make these judgments, if you can make better judgments when you’re giving feedback, you can train a better model.” This approach is a type of “scalable oversight“ that’s intended to allow humans to keep watch over AI systems even if they end up outpacing us intellectually.

“Using LLM-assisted human annotators is a natural way to improve the feedback process.” —Stephen Casper, MIT

Of course, before it could be used for these experiments, CriticGPT had to be trained itself using the usual techniques, including RLHF. In an interesting twist, the researchers had the human trainers deliberately insert bugs into ChatGPT-generated code before giving it to CriticGPT for evaluation. CriticGPT then offered up a variety of responses, and the humans were able to judge the best outputs because they knew which bugs the model should have caught.

The results of OpenAI’s experiments with CriticGPT were encouraging. The researchers found that CriticGPT caught substantially more bugs than qualified humans paid for code review: CriticGPT caught about 85 percent of bugs, while the humans caught only 25 percent. They also found that pairing CriticGPT with a human trainer resulted in critiques that were more comprehensive than those written by humans alone, and contained fewer hallucinated bugs than critiques written by ChatGPT. McAleese says OpenAI is working toward deploying CriticGPT in its training pipelines, though it’s not clear how useful it would be on a broader set of tasks.

CriticGPT spots coding errors, but maybe not zebras

It’s important to note the limitations of the research, including its focus on short pieces of code. While the paper includes an offhand mention of a preliminary experiment using CriticGPT to catch errors in text responses, the researchers haven’t yet really waded into those murkier waters. It’s tricky because errors in text aren’t always as obvious as a zebra waltzing into a Victorian novel. What’s more, RLHF is often used to ensure that models don’t display harmful bias in their responses and do provide acceptable answers on controversial subjects. McAleese says CriticGPT isn’t likely to be helpful in such situations: “It’s not a strong enough approach.”

An AI researcher with no connection to OpenAI says that the work is not conceptually new, but it’s a useful methodological contribution. “Some of the main challenges with RLHF stem from limitations in human cognition speed, focus, and attention to detail,” says Stephen Casper, a Ph.D. student at MIT and one of the lead authors on a 2023 preprint paper about the limitations of RLHF. “From that perspective, using LLM-assisted human annotators is a natural way to improve the feedback process. I believe that this is a significant step forward toward more effectively training aligned models.”

But Casper also notes that combining the efforts of humans and AI systems “can create brand-new problems.” For example, he says, “this type of approach elevates the risk of perfunctory human involvement and may allow for the injection of subtle AI biases into the feedback process.”

The new alignment research is the first to come out of OpenAI since the company... reorganized its alignment team, to put it mildly. Following the splashy departures of OpenAI cofounder Ilya Sutskever and alignment leader Jan Leike in May, both reportedly spurred by concerns that the company wasn’t prioritizing AI risk, OpenAI confirmed that it had disbanded its alignment team and distributed remaining team members to other research groups. Everyone’s been waiting to see if the company would keep putting out credible and pathbreaking alignment research, and on what scale. (In July 2023, the company had announced that it was dedicating 20 percent of its compute resources to alignment research, but Leike said in a May 2024 tweet that his team had recently been “struggling for compute.”) The preprint released today indicates that at least the alignment researchers are still working the problem.

‘Leer rechtenstudenten op verantwoorde manier AI gebruiken’

11 June 2024 at 15:42

Het opkomende gebruik van AI binnen het juridisch onderwijs levert zowel kansen als uitdagingen op. Rechters, advocaten en juridische professionals hebben al voorzichtig AI geïntegreerd in hun dagelijkse praktijk. Het gebruik van AI roept echter vragen op over transparantie, verantwoordelijkheid en de mogelijke gevolgen op de invulling van het onderwijs. Het is essentieel om te begrijpen hoe AI de juridische praktijk verandert en een weg vindt naar het klaslokaal. In deze bijdrage wordt toegelicht hoe rechtenstudenten ChatGPT verantwoord kunnen inzetten tijdens hun studie.

AI in juridische praktijk en onderwijs

Het gebruik van AI in de juridische praktijk heeft al stevig wortel geschoten en zal naar verwachting alleen maar toenemen naarmate de technologie zich verder ontwikkelt. Rechters, advocaten en juridische professionals maken al in toenemende mate gebruik van AI-tools en -systemen. Ze gebruiken AI voor bijvoorbeeld juridisch onderzoek, het analyseren van jurisprudentie, het opstellen van juridische documenten en het voorspellen van juridische uitkomsten. Zo raadpleegde een rechter recent ChatGPT om aanvullend inzicht te krijgen in complexe juridische kwesties. Hoewel de rechter uiteindelijk zijn oordeel vormde op basis van verschillende bronnen, illustreert dit voorbeeld de groeiende acceptatie van AI als hulpmiddel bij juridische besluitvorming.

Ook juridische opleidingen in het hoger onderwijs onderkennen de potentie van AI en experimenteren met manieren om deze technologie in het curriculum te integreren. Saxion, de HvA en de HAN behoren tot de onderwijsinstellingen die actief bezig zijn met het integreren van AI in hun juridische opleidingen. Deze hogescholen bieden vakken aan die zich richten op de ethische, juridische en sociale implicaties van AI, en op de praktische toepassingen ervan in het juridische veld.

Richtlijnen voor ChatGPT bij hogescholen en universiteiten

De literatuur wijst eveneens uit dat ChatGPT een opkomend hulpmiddel is binnen zowel de juridische praktijk als wetenschap. Klingensmith benadrukt bijvoorbeeld het gebruik van ChatGPT in rechterlijke besluitvorming, terwijl Stamhuis het ziet als een potentieel waardevol hulpmiddel voor het verbeteren van juridische en academische teksten. Meuwese heeft onderzoek gedaan naar het gebruik van ChatGPT bij het maken van wetgeving, waarbij hij concludeerde dat menselijke tussenkomst nog steeds essentieel is voor het verfijnen van wetteksten.

Op het gebied van onderwijs hebben verschillende hogescholen en universiteiten richtlijnen en handleidingen opgesteld voor het gebruik van ChatGPT. Saxion, de HAN, de HvA, de HU en andere hoger-onderwijsinstellingen erkennen de potentie van ChatGPT als leermiddel, maar benadrukken tegelijkertijd het belang van transparantie, kritisch denken en ethisch handelen bij het gebruik ervan. Docenten worden aangemoedigd om de output van ChatGPT kritisch te evalueren en studenten te begeleiden bij het verantwoord gebruik ervan in hun academische werk. 

Zowel de juridische praktijk als het onderwijs wordt zich dus in toenemende mate bewust van de mogelijkheden en uitdagingen van AI, en is actief bezig met het verkennen van de beste manieren om deze technologie te benutten. Met de juiste richtlijnen en begeleiding kunnen AI-tools zoals ChatGPT een waardevolle aanvulling zijn op zowel het juridisch werk als het juridisch onderwijs.

Privacy, ethiek en AI

Het gebruik van ChatGPT raakt ook op verschillende manieren aan het privacyrecht. ChatGPT kan bijvoorbeeld impact hebben op de bescherming van mensenrechten en fundamentele vrijheden. De Europese Commissie heeft reeds gezegd dat digitale ontwikkelingen moeten gepaard gaan met volledige veiligheid en eerbiediging van mensenrechten. Het recht dat specifiek beschermt dient te worden is het recht op persoonlijke levenssfeer: bij gebruik van AI kunnen persoonlijke gegevens worden verwerkt in digitale systemen en kunnen privégegevens van anderen worden geproduceerd door het digitale AI-systeem. 

Dit is ook relevant voor AI-gebruik in het onderwijs. Studenten moeten geen persoonlijke gegevens van zichzelf en of anderen gebruiken binnen AI-systemen. Een deel van de informatie die in AI-systemen wordt ingevoerd, wordt doorgeven aan in Amerika gevestigde leveranciers van generatieve AI. Daarmee zijn persoonsgegevens dus niet beschermt.

Bij inschrijving ga je akkoord met onze privacy-voorwaarden. Deze voorwaarden zijn hier te lezen.

De wekelijkse nieuwsbrief is nog korte tijd gratis te ontvangen. De voorwaarden vindt u hier.

Het is tevens belangrijk om licht te werpen op enkele ethische dilemma’s rond AI-gebruik in het onderwijs. Door de opkomst van digitale technologieën heeft het onderwijs de afgelopen decennia ingrijpende veranderingen moeten ondergaan. Die brengen ethische vragen met zich mee, bijvoorbeeld in hoeverre onderwijsinstellingen en docenten de activiteiten van studenten mogen monitoren. Daarnaast hoort nu bij de ontwikkeling van het kritisch denkvermogen van studenten dat ze in staat zijn om resultaten van zoekopdrachten kritisch te analyseren. Kritisch denkvermogen vereist dus digitale geletterdheid, die moet worden gestimuleerd.

Van der Vorst ea. betoogt bijvoorbeeld dat het gebruik van AI inhoudt dat de gebruiker in feite een deel van diens ethische afwegingen delegeert aan AI. Daarbij neemt de gebruiker het risico dat de uitkomsten daarvan bevooroordeeld zijn – en AI heeft juist een vangrails nodig om vooroordelen uit de weg te gaan.  Daarnaast is er het reeds bekende probleem dat ChatGPT een aantal ethische problemen oproept over auteurschap, intellectueel eigendomsrecht en de betrouwbaarheid van de informatie. 

Studenten moet dus worden meegegeven dat ze bij het gebruik van ChatGPT altijd alert horen te zijn op het recht op privacy van anderen. Daarnaast hoort de student rekening te houden met de ethische dilemma’s die ChatGPT met zich meebrengt. 

Conclusie en aanbevelingen

Op basis van de bovengenoemde overwegingen kunnen verschillende aanbevelingen worden gedaan om het verantwoord gebruik van AI in het juridisch onderwijs te bevorderen. Allereerst is het van cruciaal belang dat onderwijsinstellingen studenten voorzien van een grondige opleiding in de ethische, juridische en sociale implicaties van AI, evenals in de praktische toepassingen ervan in het juridische veld. Dit omvat niet alleen een theoretisch begrip van AI, maar ook praktische ervaring met het gebruik ervan in realistische juridische scenario’s.

Daarnaast moeten studenten worden aangemoedigd om transparant te zijn over hun gebruik van AI in academisch werk. Ze moeten duidelijk aangeven welke delen van hun werk door AI zijn beïnvloed, en moeten in staat zijn om de methoden die ze hebben gebruikt te rechtvaardigen en te verantwoorden. Dit draagt bij aan een cultuur van integriteit en verantwoordelijkheid binnen het juridisch onderwijs.

Docenten spelen daarbij een cruciale rol. Ze moeten studenten voorzien van de nodige begeleiding en ondersteuning bij het gebruik van AI, inclusief training in het kritisch evalueren van de output van AI-systemen. Dit omvat het identificeren en corrigeren van eventuele vooroordelen of onnauwkeurigheden in de AI-output, en het waarborgen van de naleving van geldende wet- en regelgeving.

Ten slotte is het essentieel dat onderwijsinstellingen strenge privacybeschermingsmaatregelen implementeren om ervoor te zorgen dat persoonlijke en vertrouwelijke gegevens veilig worden opgeslagen en niet worden misbruikt. Dit omvat het opstellen en handhaven van duidelijke richtlijnen en protocollen voor gegevensbeheer en -beveiliging, evenals het bieden van training en bewustwording aan studenten en medewerkers over privacykwesties met betrekking tot AI-gebruik.

Wordt dit in acht genomen, dan kunnen onderwijsinstellingen het verantwoord gebruik van AI in het juridisch onderwijs bevorderen en studenten voorbereiden op een toekomst waarin AI een steeds prominentere rol speelt in de juridische praktijk.

Ayla Yayla is docent bij de opleiding HBO-Rechten van de Hogeschool Leiden. Ze heeft Rechtsgeleerdheid en fiscaal recht gestudeerd. 

Bronnen

  • S. Maasbommel, ‘Oei, AI: juristen bedreigd door ChatGPT’, Mr-online.nl, 27 juni 2023
  • M. W. Klingensmith, ‘Feature: let’s talk, ChatGPT: what will the judiciary’s future look like’, LexisNexis mei/juni 2023
  • A.C.M. Meuwese, ‘WetGPT?: Kan een large language model wetten schrijven?’, Regelmaat: Kwartaalblad Voor Wetgevingsvraagstukken, 2023/38
  • R. Neefje & K. Vogelaar, ‘Gebruik van ChatGPT in onderwijs en toetsing’, husite.nl, geraadpleegd op 7 april 2024, www.husite.nl, (zoeken op: ChatGPT en toetsing hogeschool Utrecht)
  • Brattinga & C. Cuijpers, ‘ChatGPT in recruitment – (geen) goede match! Het juridisch speelveld in vogelvlucht’, Tijdschrift voor HRM editie 1 2024, p. 27 – 29’
  • Brattinga & C. Cuijpers, ‘ChatGPT in recruitment – (geen) goede match! Het juridisch speelveld in vogelvlucht’, Tijdschrift voor HRM editie 1 2024, p. 33
  • J. Rabaey ea., ‘Maatschappelijke waarden in de digitale innovatie: wie, wat en hoe? kVAB Denkerprogramma 2019’, KVAB Press 2019, p. 47 – 49
  • T. van der Vorst ea., ‘De (on)mogelijkheden van kunstmatige intelligentie in het onderwijs’, Ministerie van Onderwijs, Cultuur & Wetenschap 2019, p. 50 -52
  • Kommers, ‘Sociale en ethische aspecten van Ai’, Universiteit van Twente 2023, p. 38
  • D. Groenewoud & M. Kouwenberg, ‘ChatGPT in jurdibus: over kansen en tekortkomingen’, Arsaequi.nl/maandblad, AA20230315
  • A. Bosshardt, ‘Handreiking AI/ChatGPT voor studenten’, Saxion.nl, geraadpleegd op 7 april 2024, www.saxion.nl. (zoeken op: ChatGPT en toetsing Saxion)
  • F. Vonk & J. Bunk, ‘Handreiking ChatGPT & Toetsing: AI in onderwijs en toetsing voor examinatoren en examencommissies’, Han.nl, 13 februari 2023, www.han.nl, (zoeken op: ChatGPT en toetsing HAN)
  • H. Wellner e.a., ‘Startnotitie ChatGPT/Ai in onderwijs’, Icto.foo.hva.nl, 25 januari 2023, www.icto.foo.hva.nl, (zoeken op: ChatGPT en toetsing Hogeschool van Amsterdam)

The post ‘Leer rechtenstudenten op verantwoorde manier AI gebruiken’ first appeared on ScienceGuide.

Het bericht ‘Leer rechtenstudenten op verantwoorde manier AI gebruiken’ verscheen eerst op ScienceGuide.

1-bit LLMs Could Solve AI’s Energy Demands



Large language models, the AI systems that power chatbots like ChatGPT, are getting better and better—but they’re also getting bigger and bigger, demanding more energy and computational power. For LLMs that are cheap, fast, and environmentally friendly, they’ll need to shrink, ideally small enough to run directly on devices like cellphones. Researchers are finding ways to do just that by drastically rounding off the many high-precision numbers that store their memories to equal just 1 or -1.

LLMs, like all neural networks, are trained by altering the strengths of connections between their artificial neurons. These strengths are stored as mathematical parameters. Researchers have long compressed networks by reducing the precision of these parameters—a process called quantization—so that instead of taking up 16 bits each, they might take up 8 or 4. Now researchers are pushing the envelope to a single bit.

How to Make a 1-bit LLM

There are two general approaches. One approach, called post-training quantization (PTQ) is to quantize the parameters of a full-precision network. The other approach, quantization-aware training (QAT), is to train a network from scratch to have low-precision parameters. So far, PTQ has been more popular with researchers.

In February, a team including Haotong Qin at ETH Zurich, Xianglong Liu at Beihang University, and Wei Huang at the University of Hong Kong introduced a PTQ method called BiLLM. It approximates most parameters in a network using 1 bit, but represents a few salient weights—those most influential to performance—using 2 bits. In one test, the team binarized a version of Meta’s LLaMa LLM that has 13 billion parameters.

“One-bit LLMs open new doors for designing custom hardware and systems specifically optimized for 1-bit LLMs.” —Furu Wei, Microsoft Research Asia

To score performance, the researchers used a metric called perplexity, which is basically a measure of how surprised the trained model was by each ensuing piece of text. For one dataset, the original model had a perplexity of around 5, and the BiLLM version scored around 15, much better than the closest binarization competitor, which scored around 37 (for perplexity, lower numbers are better). That said, the BiLLM model required about a tenth of the memory capacity as the original.

PTQ has several advantages over QAT, says Wanxiang Che, a computer scientist at Harbin Institute of Technology, in China. It doesn’t require collecting training data, it doesn’t require training a model from scratch, and the training process is more stable. QAT, on the other hand, has the potential to make models more accurate, since quantization is built into the model from the beginning.

1-bit LLMs Find Success Against Their Larger Cousins

Last year, a team led by Furu Wei and Shuming Ma, at Microsoft Research Asia, in Beijing, created BitNet, the first 1-bit QAT method for LLMs. After fiddling with the rate at which the network adjusts its parameters, in order to stabilize training, they created LLMs that performed better than those created using PTQ methods. They were still not as good as full-precision networks, but roughly 10 times as energy efficient.

In February, Wei’s team announced BitNet 1.58b, in which parameters can equal -1, 0, or 1, which means they take up roughly 1.58 bits of memory per parameter. A BitNet model with 3 billion parameters performed just as well on various language tasks as a full-precision LLaMA model with the same number of parameters and amount of training, but it was 2.71 times as fast, used 72 percent less GPU memory, and used 94 percent less GPU energy. Wei called this an “aha moment.” Further, the researchers found that as they trained larger models, efficiency advantages improved.

A BitNet model with 3 billion parameters performed just as well on various language tasks as a full-precision LLaMA model.

This year, a team led by Che, of Harbin Institute of Technology, released a preprint on another LLM binarization method, called OneBit. OneBit combines elements of both PTQ and QAT. It uses a full-precision pretrained LLM to generate data for training a quantized version. The team’s 13-billion-parameter model achieved a perplexity score of around 9 on one dataset, versus 5 for a LLaMA model with 13 billion parameters. Meanwhile, OneBit occupied only 10 percent as much memory. On customized chips, it could presumably run much faster.

Wei, of Microsoft, says quantized models have multiple advantages. They can fit on smaller chips, they require less data transfer between memory and processors, and they allow for faster processing. Current hardware can’t take full advantage of these models, though. LLMs often run on GPUs like those made by Nvidia, which represent weights using higher precision and spend most of their energy multiplying them. New hardware could natively represent each parameter as a -1 or 1 (or 0), and then simply add and subtract values and avoid multiplication. “One-bit LLMs open new doors for designing custom hardware and systems specifically optimized for 1-bit LLMs,” Wei says.

“They should grow up together,” Huang, of the University of Hong Kong, says of 1-bit models and processors. “But it’s a long way to develop new hardware.”

Scarlett Johansson vs. OpenAI: gebruikte maker ChatGPT zonder toestemming haar stem?

22 May 2024 at 07:10
Scarlett Johansson. Volgens haar gebruikte OpenAI zonder toestemming haar stem.

Misschien heb je hem ooit wel gezien: de film Her, over een AI die een relatie krijgt met een man. In de toekomst kun je ook in het echt met de stem van de AI praten. Tenminste, dat is wat OpenAI bedacht had.Vorig jaar introduceerde het bedrijf, dat ChatGPT maakte, een spraakassistent met een stem die geïnspireerd lijkt op die van Scarlett Johansson, die in de film achter de stem zat. Maar wat blijkt: Scarlett Johansson heeft daar helemaal geen toestemming voor gegeven.

De stem Sky bestaat al sinds vorig jaar, maar kreeg bij een demo vorige week meer aandacht. Daarbij werd getoond hoe de spraakassistent een verhaaltje voor het slapengaan vertelde. De AI begint met een vrouwelijke stem, die verdacht veel lijkt op de stem van de AI in Her, die dus door Johansson werd ingesproken. Die gedachte werd kracht bijgezet door een bericht van OpenAI-ceo Sam Altmen: op X plaatste hij het woord ‘her’. En eerder vertelde hij als dat Her zijn favoriete film is.

 

View this post on Instagram

 

A post shared by The Verge (@verge)

Hoewel OpenAI al vrij snel benadrukte dat de spraakassistent niet ontworpen is om als Johansson te klinken, ontstond in de afgelopen dagen toch ophef. Op 20 mei werd bekend dat de stem tijdelijk offline wordt gehaald, omdat er veel vragen werden gesteld over Sky, aldus The Verge. Daarbij benadrukte het bedrijf dat Sky niet op Johansson moet lijken. “We vinden dat AI-stemmen niet expres de unieke stem van een beroemdheid moet nadoen”, zegt het bedrijf. “Sky’s stem is geen imitatie van Scarlett Johansson, maar is van een actrice die haar eigen stem gebruikt.”

Scarlett Johansson boos op OpenAI

Inmiddels blijkt echter dat er wat meer achter het verhaal zit. Johansson zelf heeft ondertussen gereageerd met een verklaring en stelt dat OpenAI haar benaderd had om de stem in te spreken. Dat verzoek wees ze af, waarop dus alsnog een stem verscheen die precies als Johansson zelf klinkt. Tegenover NPR zegt ze dat OpenAI haar twee dagen voor de demo verscheen opnieuw benaderde, met de vraag of ze het verzoek wilde heroverwegen. Nog voor er überhaupt een gesprek had plaatsgevonden, was de demo al verschenen en merkte Johansson dus dat Sky op haar lijkt.

“Ik was geshockeerd, woedend en kon niet geloven dat Altman een stem zou maken die zo vergelijkbaar is met de mijne dat mijn naaste vrienden en nieuwsmedia het verschil niet konden horen”, aldus Johansson. Zeker nu er zoveel misinformatie op het internet rondgaat, baart dat haar zorgen. Ondertussen hebben haar advocaten twee brieven naar OpenAI gestuurd, waarin ze vragen om een gedetailleerde beschrijving van het ontwikkelproces van Sky.

Sam Altman ontkent de aantijgingen ondertussen. Hij stelt dat de stemacteur achter Sky al gecast was voor er überhaupt ooit contact was gelegd met Johansson. “Uit respect voor Johansson hebben we het gebruik van Sky’s stem in onze producten gepauzeerd. Het spijt ons dat we niet beter gecommuniceerd hebben”, aldus de ceo.

OpenAI vs. auteursrechten

Het is niet de eerste keer dat OpenAI in opspraak komt na boze eigenaren van rechten. Eerder werden al rechtszaken aangespannen – waaronder door The New York Times – waarin het bedrijf samen met Microsoft beschuldigd wordt van het schenden van auteursrechten. Het AI-bedrijf zou zonder toestemming artikelen van de krant hebben gebruikt om zijn AI-systemen te trainen. Maar op die artikelen rust auteursrecht, dus dat mag niet zomaar. Diverse schrijvers beklaagden zich over hetzelfde probleem: ook hun werk zou zonder toestemming door het bedrijf gebruikt zijn om de systemen te trainen.

Foto: Shutterstock

Lees Scarlett Johansson vs. OpenAI: gebruikte maker ChatGPT zonder toestemming haar stem? verder op Numrush

❌
❌