GPT-4 Kommer: Et Kig Ind I Fremtiden For AI

shutterstock.jpg

GPT-4 siges af nogle at være "næste niveau" og forstyrrende, men hvad vil virkeligheden være?

CEO Sam Altman besvarer spørgsmål om GPT-4 og fremtiden for AI.

Hint om at GPT-4 vil være multimodal AI?

I en podcast-interview (AI for the Next Era) fra den 13. september 2022 diskuterede OpenAI CEO Sam Altman den nære fremtid for AI-teknologi.

Det er interessant, at han sagde, at en multimodal model var i nær fremtid.

Multimodal betyder evnen til at fungere på flere måder, såsom tekst, billeder og lyde.

OpenAI interagerer med mennesker gennem tekstindtastninger. Uanset om det er Dall-E eller ChatGPT, er det strengt en tekstbaseret interaktion.

En AI med multimodale evner kan interagere gennem tale. Den kan lytte til kommandoer og give information eller udføre en opgave.

Altman tilbød disse forførende detaljer om, hvad man kan forvente snart:

"Jeg tror, vi får multimodale modeller inden for ikke så lang tid, og det vil åbne op for nye ting.

Jeg synes, folk laver fantastisk arbejde med agenter, der kan bruge computere til at gøre ting for dig, bruge programmer og denne ide om et sproginterface, hvor du siger en naturlig sprog - hvad du vil have i denne form for dialog frem og tilbage.

Du kan iterere og forfine det, og computeren gør det bare for dig.

Du ser noget af dette med DALL-E og CoPilot på meget tidlige stadier."

Altman sagde ikke specifikt, at GPT-4 vil være multimodal. Men han antydede, at det ville komme inden for en kort tidsramme.

Især interessant er, at han forestiller sig multimodal AI som en platform til at opbygge nye forretningsmodeller, som ikke er mulige i dag.

Han sammenlignede multimodal AI med den mobile platform og hvordan det åbnede muligheder for tusinder af nye virksomheder og job.

Altman sagde:

"... Jeg tror, at dette vil blive en stor trend, og meget store virksomheder vil blive opbygget med dette som grænseflade, og mere generelt [tror jeg], at disse meget kraftfulde modeller vil være en af de ægte nye teknologiske platforme, som vi ikke rigtig har haft siden mobiltelefoner."

"Og der er altid en eksplosion af nye virksomheder lige efter, så det bliver fedt."

Da han blev spurgt om, hvad næste fase af udviklingen var for AI, svarede han med det, han sagde var funktioner, der var en sikkerhed.

“Jeg tror, vi vil få ægte multimodale modeller til at fungere.

Og så ikke kun tekst og billeder, men alle modaliteter, du har i én model, kan let og flydende bevæge sig mellem tingene."

AI-modeller der selvforbedrer sig?

Noget, der ikke tales meget om, er, at AI-forskere gerne vil skabe en AI, der kan lære af sig selv.

Denne kompetence går ud over at spontant forstå, hvordan man gør ting som at oversætte mellem sprog.

Evnen til at gøre ting spontant kaldes opståen. Det er, når nye evner opstår ved at øge mængden af træningsdata.

Men en AI, der lærer af sig selv, er noget helt andet, der ikke er afhængig af, hvor stor træningsdataen er.

Hvad Altman beskrev, er en AI, der rent faktisk lærer og opgraderer sine evner.

Desuden går denne slags AI ud over versionsparadigmet, som software traditionelt følger, hvor et firma udgiver version 3, version 3.5 osv.

Han forestiller sig en AI-model, der bliver trænet og derefter lærer af sig selv, vokser af sig selv og bliver til en forbedret version.

Altman indikerede ikke, at GPT-4 vil have denne evne.

Han har lige fremlagt dette som noget, de stræber efter, angiveligt noget, der er inden for rækkevidde af en tydelig mulighed.

Han forklarede en AI med evnen til selv at lære:

"Jeg tror, vi vil have modeller, der kontinuerligt lærer.

For øjeblikket er GPT eller hvad du bruger, fast i den tid, den blev trænet. Og jo mere du bruger den, bliver den ikke bedre eller noget i den stil.

Jeg tror, vi får det ændret.

Så jeg er meget spændt på alt dette."

Det er uklart, om Altman talte om Artificial General Intelligence (AGI), men det virker lidt som om han gjorde det.

Altman debunkered for nylig ideen om, at OpenAI har en AGI, hvilket bliver citeret senere i denne artikel.

Altman blev bedt af intervieweret om at forklare, hvordan alle de ideer, han talte om, var faktiske mål og plausible scenarier og ikke bare meninger om, hvad han gerne ville have OpenAI til at gøre.

Intervieweren spurgte:

“Så en ting, som jeg synes ville være nyttigt at dele - fordi folk ikke indser, at du faktisk laver disse stærke forudsigelser fra et ret kritisk synspunkt, ikke bare 'Vi kan erobre den bakke'…”

Altman forklarede, at alt hvad han taler om, er forudsigelser baseret på forskning, der giver dem mulighed for at sætte en levedygtig vej fremad og vælge det næste store projekt med tillid.

Han delte,

“Vi kan lide at lave forudsigelser, hvor vi kan være på forkanten, forstå forudsigeligt, hvordan skaleringslove ser ud (eller allerede har forskningen gjort det), hvor vi kan sige, 'Okay, denne nye ting kommer til at fungere, og vi laver forudsigelser ud fra det.'"

Og det er sådan, vi prøver at drive OpenAI, ved at gøre det næste, der ligger foran os, når vi har stor tillid, og tage 10% af virksomheden til at gå helt ud og udforske, hvilket har ført til enorme gevinster."

Kan OpenAI nå nye milepæle med GPT-4?

En af de ting, der er nødvendige for at drive OpenAI, er penge og enorme mængder af computere.

Microsoft har allerede investeret tre milliarder dollars i OpenAI, og ifølge New York Times er de i samtaler om at investere yderligere 10 milliarder dollars.

The New York Times rapporterede, at GPT-4 forventes at blive frigivet i første kvartal af 2023.

Der blev antydet, at GPT-4 måske har multimodale evner, og citerede en kapitalfondsinvestor, Matt McIlwain, som har kendskab til GPT-4.

The Times rapporterede:

"OpenAI arbejder på et endnu mere kraftfuldt system kaldet GPT-4, som ifølge hr. McIlwain og fire andre personer med kendskab til bestræbelsen kunne blive frigivet allerede i dette kvartal."

...Bygget ved hjælp af Microsofts enorme netværk af datacentre, kunne den nye chatbot være et system som ChatGPT, der kun genererer tekst. Eller den kunne jonglere med billeder såvel som tekst.

Nogle ventureselskaber og Microsoft-medarbejdere har allerede set tjenesten i aktion.

Men OpenAI har endnu ikke afgjort, om det nye system vil blive frigivet med muligheder involverende billeder."

Pengene Følger OpenAI

Mens OpenAI ikke har delt detaljer med offentligheden, har det delt detaljer med venturefondsamfundet.

Der er i øjeblikket samtaler, der vil værdiansætte virksomheden så højt som 29 milliarder dollars.

Det er en bemærkelsesværdig præstation, fordi OpenAI i øjeblikket ikke genererer betydelig indtjening, og den nuværende økonomiske klima har tvunget vurderingen af mange teknologivirksomheder nedad.

Observeren rapporterede:

"Venturekapitalfirmaerne Thrive Capital og Founders Fund er blandt de investorer, der er interesserede i at købe i alt $300 millioner værd af OpenAI-aktier, rapporterer Journalen. Aftalen er struktureret som et tilbud om køb, hvor investorerne køber aktier fra eksisterende aktionærer, herunder medarbejdere."

Den høje vurdering af OpenAI kan ses som en bekræftelse på teknologiens fremtid, og den fremtid er i øjeblikket GPT-4.

Sam Altman besvarer spørgsmål om GPT-4

Sam Altman blev for nylig interviewet til StrictlyVC-programmet, hvor han bekræfter, at OpenAI arbejder på en videomodel, hvilket lyder utroligt, men det kan også føre til alvorlige negative konsekvenser.

Mens det ikke blev sagt, at video-delen var en komponent af GPT-4, var det af interesse og muligvis relateret til, at Altman var eftertrykkelig omkring, at OpenAI ikke ville frigive GPT-4, før de var sikre på, at det var sikkert.

Den relevante del af interviewet finder sted ved 4 minutter og 37 sekunder:

Intervieweren spurgte:

“Kan du kommentere om GPT-4 kommer ud i første kvartal, første halvdel af året?”

Sam Altman svarede:

“Det kommer til at komme på et tidspunkt, hvor vi er sikre på, at vi kan gøre det sikkert og ansvarligt.

Jeg tror generelt, at vi kommer til at frigive teknologien meget langsommere end folk gerne vil have.

Vi kommer til at vente med det meget længere end folk gerne vil have.

Og til sidst vil folk være tilfredse med vores tilgang til dette.

Men på det tidspunkt forstod jeg, at folk vil have den blanke legetøj og det er frustrerende og jeg forstår det godt.”

Twitter summer med rygter, der er svære at bekræfte. En ubekræftet rygte er, at den vil have 100 billioner parametre (sammenlignet med GPT-3's 175 milliarder parametre).

Denne rygte blev afvist af Sam Altman i interviewprogrammet StrictlyVC, hvor han også sagde, at OpenAI ikke har Kunstig Generel Intelligens (AGI), hvilket er evnen til at lære alt, hvad et menneske kan.

Altman kommenterede:

"Jeg så det på Twitter. Det er komplet b——t.

GPT-rygtebørsen er som en latterlig ting.

... Folk beder om at blive skuffet, og det vil de blive.

... Vi har ikke en faktisk AGI, og jeg tror, det er lidt det, der forventes af os, og ja ... vi vil skuffe disse mennesker."

Mange rygter, få fakta

De to pålidelige fakta om GPT-4 er, at OpenAI har været kryptisk omkring GPT-4 til det punkt, hvor offentligheden stort set intet ved, og den anden er, at OpenAI ikke vil frigive et produkt, før det er sikkerhedsmæssigt forsvarligt.

Så på dette tidspunkt er det svært at sige med sikkerhed, hvordan GPT-4 vil se ud og hvad det vil være i stand til.

Men en tweet fra teknologiskribenten Robert Scoble hævder, at det vil være på næste niveau og være en forstyrrelse.

Også læst: Kan AI udføre SEO? Eksperimenter med OpenAI's GPT-3

Relaterede Artikler

Se mere >>

Lås op for AI-kraften med HIX.AI!