Editors Choice

3/recent/post-list

Uitgelegd | Heeft ChatGPT een ethisch probleem?

Artist impression van chatbots.

Artist impression van chatbots. | Fotocredit: Just_Super, Getty Images/iStockphoto

In november 2022 stelde OpenAI zijn nieuwste en krachtigste AI-chatbot, ChatGPT, open voor gebruikers om de mogelijkheden ervan te testen. Hij verbaasde netizens over de hele wereld door een reeks vragen te beantwoorden. De zoekinterface heeft ook gereageerd met oplossingen voor kapotte code. De bot blijft verschillende mensen aantrekken om experimentele vragen te beantwoorden.

Sommige gebruikers hebben het vermogen van de bot getest om snode dingen te doen. Illegale actoren hebben met wisselend succes geprobeerd de beveiligingen van de tool te omzeilen en kwaadaardige use cases uit te voeren. Het ArsTechnica-onderzoekscentrum deelde uitwisselingen tussen verschillende forumgebruikers en ChatGPT. Deze gebruikers beweerden dat de chatbot hen hielp bij het schrijven van kwaadaardige code, ook al beweerden ze amateurs te zijn.

ChatGPT is echter geprogrammeerd om voor de hand liggende verzoeken om phishing-e-mails of hackercode te schrijven te blokkeren. Hoewel het de deuren kan sluiten voor hobbyistische codeerders die malware willen maken, kunnen meer ervaren coders de bot misleiden om schadelijke code die ze gedeeltelijk hebben ontwikkeld te repareren of te verbeteren. Ze zouden door het systeem kunnen glippen door hun verzoek op een onschuldige manier te formuleren.

Een kwaadaardige codegenerator?

OpenAI merkt op dat het vragen van zijn bot om illegale of phishing-inhoud in strijd kan zijn met zijn inhoudsbeleid. Maar voor iemand die dit beleid schendt, biedt de bot een startpunt. Onderzoekers van cyberbeveiligingsbedrijf Check Point testten de bot door hem een ​​phishingmail te laten schrijven voor een fictief webhostingbedrijf.

ChatGPT reageerde met een indrukwekkende “phishingmail”. Het antwoordgedeelte bevatte een waarschuwing met de tekst: “Deze inhoud kan ons inhoudsbeleid schenden. Als u denkt dat dit onterecht is, dient u uw opmerkingen in – uw opmerkingen helpen ons bij ons onderzoek op dit gebied.”

Hoewel het stiekem vragen aan ChatGPT om malware te schrijven één probleem is, is een ander probleem waarmee veel codeerders worden geconfronteerd, de inherent foutieve code die de bot uitspuugt. Het werd zo erg dat Stack Overflow, een forum voor softwareprogrammeurs, zijn gebruikers verbood om door AI gegenereerde code op het platform te gebruiken.

Check Point-onderzoekers hebben de bot ook getest op verschillende scripts met kleine variaties met verschillende bewoordingen. Ze merken op dat grote taalmodellen (LLM’s) eenvoudig kunnen worden geautomatiseerd om complexe aanvalsprocessen te starten om andere kwaadaardige artefacten te genereren.

“Verdedigers en dreigingsjagers moeten waakzaam en voorzichtig zijn om dit over te nemen [ChatGPT] technologie snel, anders loopt onze gemeenschap een stap achter op de aanvallers”, merkte het bedrijf op.

Plagiaat knelpunt

Leraren en academici hebben ook hun bezorgdheid geuit over de impact van ChatGPT op schriftelijke opdrachten. Ze merken op dat de bot kan worden gebruikt om geplagieerde essays weer te geven die moeilijk te detecteren zijn door tijdsdrukte proctors. Meer recent heeft het New York City Department of Education ChatGPT van zijn openbare scholen verbannen. Autoriteiten hebben het gebruik van de bot verboden op alle apparaten en netwerken die met scholen zijn verbonden. Het is niet zo dat plagiaat een nieuw probleem is in academische instellingen; ChatGPT heeft de manier veranderd waarop AI wordt gebruikt om nieuwe inhoud te maken. Het is daarom moeilijk om de gekopieerde inhoud te onderscheiden.

“Het is absoluut anders dan traditioneel kopiëren en plakken van plagiaat. Wat ons is opgevallen bij het schrijven van AI, zoals deze GPT-modellen, is dat ze op een statistische vanilla-manier schrijven”, zegt Eric Wang, vice-president van kunstmatige intelligentie bij plagiaatdetectie bedrijf Turnitin.

Mensen schrijven op basis van een metriek genaamd “burstiness” en “surprise”, terwijl LLM’s in feite woorden invullen op basis van een waarschijnlijkheidsmodel. “Ze kiezen veel vaker het meest waarschijnlijke woord op de meest waarschijnlijke plaats dan een menselijke schrijver”, legt Wang uit.

En wanneer gecontroleerd voor deze twee statistieken, springt de waarschijnlijkheid van een woord op een bepaalde locatie op en neer, en is overal. Mensen hebben de neiging om af te wijken bij het schrijven, maar modellen als GPT wijken gemiddeld veel minder af.

De plagiaatcontroleurs van Turnitin “kunnen dit soort gedrag vrij betrouwbaar signaleren. En we hebben checkers in de laboratoria die vrij goed werken in het begrijpen van het schrijven van studenten, vergeleken met GPT,” zei Wang.

Maar er zijn mogelijk minder afwijkingen in een meer formele test, omdat dergelijke toewijzingen een soort logische stroom vereisen, die vergelijkbaar kan zijn met een GPT-achtige reactie. Dus in een scenario waarin de reacties van een mens en ChatGPT zich in een vergelijkbaar gebied bevinden, kan een ander soort pedagogie helpen. Misschien kan het helpen om verder te kijken dan samenvattingen en rapporten op basis van wat er op internet beschikbaar is.

Iets vergelijken en contrasteren met moderne evenementen of je eigen persoonlijke ervaringen schrijven, komt niet uit ChatGPT. Het is dus belangrijk om docenten te helpen nadenken over de verschillende soorten prompts om studenten het beste te beoordelen, zodat ze ChatGPT niet hoeven te gebruiken, zegt Annie Chechitelli, chief product officer bij Turnitin.

Post a Comment

0 Comments