Geschreven door Jeffrey Dustin en Anna Tong
SAN FRANCISCO – Alphabet Inc waarschuwt werknemers over hoe ze chatbots gebruiken, inclusief zijn Bard, terwijl het tegelijkertijd de software over de hele wereld op de markt brengt, vertelden vier mensen die bekend zijn met de kwestie aan Reuters.
Het moederbedrijf van Google adviseerde werknemers om zijn vertrouwelijke materiaal niet in slimme chatbots in te voeren, zeiden de mensen en het bedrijf bevestigde dit, daarbij verwijzend naar een al lang bestaand beleid inzake informatiebescherming.
Chatbots, waaronder Bard en ChatGPT, zijn mensachtige programma’s die zogenaamde generatieve kunstmatige intelligentie gebruiken om gesprekken met gebruikers te voeren en talloze prompts te beantwoorden. Chats kunnen worden gelezen door recensenten en onderzoekers hebben ontdekt dat een vergelijkbare AI gegevens kan reproduceren die het tijdens de training heeft opgezogen, waardoor het risico op lekkage ontstaat.
Sommige mensen zeiden dat Alphabet zijn ingenieurs ook waarschuwde om direct gebruik van computercode die chatbots zouden kunnen genereren te vermijden.
Toen hem om commentaar werd gevraagd, zei het bedrijf dat Bard ongevraagde codesuggesties kan doen, maar dat het programmeurs toch helpt. Google zei ook dat het transparant wil zijn over de beperkingen van zijn technologie.
De zorgen laten zien hoe Google zakelijke schade wil voorkomen door de programma’s die het heeft gelanceerd in concurrentie met ChatGPT. Op het spel in de race van Google tegen ChatGPT OpenAI-ondersteuners en Microsoft Corp zijn miljarden dollars aan investeringen en nog steeds onnoemelijke reclame- en cloudinkomsten uit nieuwe AI-software.
De waarschuwing van Google weerspiegelt ook wat een beveiligingsstandaard voor bedrijven is geworden, namelijk het waarschuwen van individuen tegen het gebruik van openbaar beschikbare chatbots.
Een toenemend aantal bedrijven over de hele wereld hebben sandboxes op AI-chatbots geplaatst, zo vertelden de bedrijven aan Reuters, waaronder Samsung, Amazon.com en Deutsche Bank. Naar verluidt heeft Apple, dat niet reageerde op verzoeken om commentaar, dat ook gedaan.
Ongeveer 43% van de professionals gebruikte in januari ChatGPT of andere AI-tools, vaak zonder het hun bazen te vertellen, volgens een onderzoek onder bijna 12.000 respondenten, onder meer van grote Amerikaanse bedrijven, uitgevoerd door de netwerksite Fishbowl. .
In februari vroeg Google werknemers die de Bard testen vóór de lancering om geen voorwetenschap te geven, meldde Insider. Google rolt nu Bard uit in meer dan 180 landen en in 40 talen als een springplank naar creativiteit, en zijn kanttekeningen strekken zich uit tot zijn codesuggesties.
Google vertelde Reuters dat het gedetailleerde gesprekken heeft gevoerd met de Ierse gegevensbeschermingscommissie om de vragen van regelgevers te beantwoorden, naar aanleiding van het rapport van Politico dinsdag dat het bedrijf de lancering van Bard in de EU deze week uitstelde in afwachting van meer informatie over de impact van de chatbot op de privacy.
Zorgen over gevoelige informatie
Dergelijke technologie kan e-mails, documenten en zelfs de programma’s zelf maken en beloven taken exponentieel te versnellen. Deze inhoud kan echter valse informatie, gevoelige gegevens of zelfs auteursrechtelijk beschermde passages uit de roman “Harry Potter” bevatten.
In de privacyverklaring van Google, bijgewerkt op 1 juni, staat ook: “Neem geen vertrouwelijke of gevoelige informatie op in uw Bard-gesprekken.”
Sommige bedrijven hebben software ontwikkeld om dergelijke problemen aan te pakken. Cloudflare, dat websites verdedigt tegen cyberaanvallen en andere clouddiensten aanbiedt, brengt bijvoorbeeld de mogelijkheid voor bedrijven op de markt om bepaalde gegevens uit de uitstroom te markeren en te beperken.
Google en Microsoft bieden ook conversatietools aan zakelijke klanten die een hogere prijs vragen, maar geen gegevens opnemen in generieke AI-modellen. De standaardinstelling in Bard en ChatGPT is om de chatgeschiedenis van gebruikers op te slaan, die gebruikers kunnen verwijderen.
Yousef Mahdi, Chief Consumer Marketing Officer van Microsoft, zei dat het “logisch” is dat bedrijven niet willen dat hun werknemers openbare chatbots gebruiken op het werk.
“Bedrijven nemen terecht een conservatief standpunt in”, zei Mehdi, terwijl hij uitlegde hoe de gratis Bing-chatbot van Microsoft zich verhoudt tot zijn bedrijfssoftware. “Daar is ons beleid veel strenger.”
Microsoft weigerde commentaar te geven op de vraag of het een algemeen verbod had op werknemers om vertrouwelijke informatie in te voeren in openbare AI-programma’s, inclusief die van zichzelf, hoewel een andere leidinggevende daar tegen Reuters vertelde dat hij het gebruik ervan persoonlijk had beperkt.
Het schrijven van vertrouwelijke zaken in chatbots was als “het laten vallen van een stel promovendi in je privégegevens”, zei Matthew Prince, CEO van Cloudflare.
(Rapportage door Jeffrey Dustin en Anna Tong in San Francisco; redactie door Kenneth Lee en Nick Zieminski)
“Gamedokter. Een zombiefanaat. Muziekstudio. Ninjacafé. Televisieliefhebber. Aardige fanatieke alcoholist.
More Stories
AirPods Pro behoort tot de lijst met “beste uitvindingen” en laat zien dat Apple nog steeds indrukwekkend is
Ubisoft haalt zijn NFT-game zonder veel tamtam van de markt
Niets laat de telefoon oplichten in het donker