OpenAI, producent af ChatGPT, forpligter sig til at udvikle sikre AI-systemer

billede1.png

OpenAI har offentliggjort et nyt blogindlæg, hvor de forpligter sig til at udvikle kunstig intelligens (AI), der er sikker og bredt gavnlig.

ChatGPT, drevet af OpenAI's nyeste model, GPT-4, kan forbedre produktiviteten, styrke kreativiteten og give skræddersyede læringsoplevelser.

Ikke desto mindre anerkender OpenAI, at AI-værktøjer har indbyggede risici, der skal tackles gennem sikkerhedsforanstaltninger og ansvarlig implementering.

Her er hvad virksomheden gør for at mindske disse risici.

Sikre sikkerhed i AI-systemer

OpenAI udfører grundig testning, søger ekstern vejledning fra eksperter og forbedrer sine AI-modeller med menneskelig feedback, før der frigives nye systemer.

Udgivelsen af GPT-4 blev for eksempel forudgået af over seks måneders test for at sikre dets sikkerhed og justering med brugernes behov.

OpenAI mener, at robuste AI-systemer bør underkastes strenge sikkerhedsvurderinger og støtter behovet for regulering.

Læring fra virkelighedsanvendelse

Real-world use is a critical component in developing safe AI systems. By cautiously releasing new models to a gradually expanding user base, OpenAI can make improvements that address unforeseen issues.

Ved at tilbyde AI-modeller gennem sin API og hjemmeside kan OpenAI overvåge for misbrug, træffe passende handlinger og udvikle nuancerede politikker for at afveje risikoen.

Beskyttelse af børn og respekt for privatlivet

OpenAI prioriterer at beskytte børn ved at kræve aldersbekræftelse og forbyder brugen af sin teknologi til at generere skadeligt indhold.

Privatliv er endnu et væsentligt aspekt af OpenAI’s arbejde. Organisationen bruger data til at gøre sine modeller mere hjælpsomme samtidig med at beskytte brugerne.

Derudover fjerner OpenAI personlige oplysninger fra træningsdatasæt og finjusterer modeller for at afvise anmodninger om personlige oplysninger.

OpenAI vil svare på anmodninger om at få slettet personlige oplysninger fra sine systemer.

Forbedring af faktuel nøjagtighed

Faktuel nøjagtighed er et vigtigt fokus for OpenAI. GPT-4 har 40% større sandsynlighed for at producere nøjagtig indhold end sin forgænger, GPT-3.5.

Organisationen arbejder på at oplyse brugerne om begrænsningerne ved AI-værktøjer og muligheden for unøjagtigheder.

Fortsat forskning og engagement

OpenAI mener, at det er vigtigt at afsætte tid og ressourcer til undersøgelse af effektive begrænsninger og tilpasningsteknikker.

Ikke desto mindre er det ikke noget, det kan gøre alene. At tackle sikkerhedsspørgsmål kræver omfattende debat, eksperimentering og engagement blandt interessenter.

OpenAI forbliver engageret i at fremme samarbejde og åben dialog for at skabe et sikkert AI-økosystem.

Kritik af eksistentielle risici

Trods OpenAI's engagement i at sikre sikkerheden og brede fordele ved dets AI-systemer, har dets blogindlæg udløst kritik på sociale medier.

Twitter-brugere har udtrykt skuffelse og påpeget, at OpenAI ikke adresserer eksistentielle risici forbundet med udviklingen af kunstig intelligens (AI).

En Twitter-bruger gav udtryk for deres skuffelse og beskyldte OpenAI for at svigte sin oprindelige mission og fokusere på uforsvarlig kommerciel udnyttelse.

Brugeren foreslår, at OpenAI's tilgang til sikkerhed er overfladisk og mere bekymret for at berolige kritikere end for at adressere reelle eksistentielle risici.

Dette er bittert skuffende, tomt PR-vinduespynt.

Du nævner ikke engang de eksistentielle risici fra AI, som er den centrale bekymring for mange borgere, teknologer, AI-forskere og AI-industriledere, herunder jeres egen CEO @sama. @OpenAI forræder sin...

— Geoffrey Miller (@primalpoly) 5. april 2023

En anden bruger udtrykte utilfredshed med meddelelsen og argumenterede for, at den skjuler reelle problemer og forbliver vag. Brugeren fremhæver også, at rapporten ignorerer kritiske etiske spørgsmål og risici ved AI-bevidsthed og antyder, at OpenAI's tilgang til sikkerhedsspørgsmål er utilstrækkelig.

Som en fan af GPT-4, er jeg skuffet over din artikel.

Den overflader reelle problemer, forbliver vag og ignorerer afgørende etiske spørgsmål og risici ved AI's selvbevidsthed.

Jeg værdsætter innovationen, men dette er ikke den rigtige tilgang til at tackle sikkerhedsproblemer.

— FrankyLabs (@FrankyLabs) 5. april 2023

Kritikken understreger de bredere bekymringer og pågående debat om eksistentielle risici i forbindelse med udvikling af kunstig intelligens.

Mens OpenAIs meddelelse fremhæver deres engagement i sikkerhed, privatliv og nøjagtighed, er det afgørende at erkende behovet for yderligere diskussion for at håndtere mere væsentlige bekymringer.

Relaterede Artikler

Se mere >>

Lås op for AI-kraften med HIX.AI!