OpenAI vjeruje da se paradigma razvoja umjetne inteligencije mijenja

Autor: Redakcija
event 24.09.2024.
Foto: Shutterstock

Prošle godine predstavili su GPT-4, napravivši veliki proboj u umjetnoj inteligenciji povećavajući svoje modele do nevjerojatnih proporcija. Sada najavljuju promjenu pristupa – pametniji model koji može logički zaključivati, a nije znatno veći od svojih prethodnika.

Novi model, nazvan OpenAI o1, može rješavati probleme koji zbunjuju postojeće AI modele, uključujući OpenAI-jev najmoćniji postojeći model, GPT-4o. Umjesto da odgovori u jednom koraku, kao što to obično rade veliki jezični modeli, on praktički „razmišlja naglas” o problemu, kao što bi to učinio čovjek, prije nego što dođe do ispravnog rezultata.

„Smatramo da je ovo nova paradigma u ovim modelima”, izjavila je Mira Murati, tehnička direktorica OpenAI-a za Wired. „Ovaj model je mnogo bolji u rješavanju vrlo složenih zadataka logičkog zaključivanja.” Novi model je unutar OpenAI-ja bio poznat pod kodnim imenom Strawberry („Jagoda”), a tvrtka kaže da nije nasljednik GPT-ja 4o, već njegova dopuna.

Nova paradigma u AI razvoju

Murati kaže da OpenAI trenutno radi na sljedećem glavnom modelu, GPT-5, koji će biti znatno veći od svog prethodnika. Iako tvrtka i dalje vjeruje da će povećanje skale pomoći u postizanju novih sposobnosti AI-ja, GPT-5 će vjerojatno uključivati i novu tehnologiju zaključivanja odnosno rasuđivanja predstavljenu 12. rujna.

Postoje dvije paradigme. Paradigma skaliranja i ova nova paradigma. Očekujemo da ćemo ih spojiti.

Mira Murati, CTO, OpenAI

Veliki jezični modeli (LLM) obično dobivaju odgovore iz ogromnih neuronskih mreža koje se treniraju na velikim količinama podataka. Oni mogu pokazivati izvanredne jezične i logičke sposobnosti, ali tradicionalno imaju poteškoća sa jednostavnim problemima poput osnovnih matematičkih pitanja koja zahtijevaju zaključivanje.

Pojačano učenje

OpenAI o1 koristi pojačano učenje, što uključuje davanje modelu pozitivne povratne informacije kada dođe do ispravnog odgovora i negativne povratne informacije kada ne uspije, kako bi poboljšao svoj proces rasuđivanja. Murati tvrdi da „model izoštrava svoje razmišljanje i fino prilagođava strategije koje koristi kako bi došao do odgovora.” Pojačano učenje omogućilo je računalima da igraju igre sa nadljudskim vještinama (OpenAI je pobijedio svjetske prvake u igrici DOTA 2 već 2019.) i obavljaju korisne zadatke poput dizajniranja računalnih čipova. Tehnika je također ključni sastojak za pretvaranje velikih jezičnih modela u korisne i intuitivne chatbotove.

Mark Chen, potpredsjednik istraživanja u OpenAI-ju, demonstrirao je novi model za Wired, koristeći ga za rješavanje nekoliko problema koje prethodni model, GPT-4o, nije mogao riješiti. Među njima su bili napredna pitanja iz kemije i složenu matematičku zagonetku.

[Novi] model uči samostalno razmišljati, umjesto da samo oponaša način na koji bi ljudi razmišljali.

OpenAI kaže da njihov novi model značajno bolje izvodi zadatke na brojnim setovima problema, uključujući zadatke fokusirane na kodiranje, matematiku, fiziku, biologiju i kemiju.

Što se događa s druge strane ograde?

Poboljšanje sposobnosti rasuđivanja velikih jezičnih modela (LLM) već je neko vrijeme vruća tema u istraživačkim krugovima. Štoviše, konkurenti slijede slične istraživačke linije. U srpnju je Google najavio AlphaProof, projekt koji kombinira jezične modele s pojačanim učenjem za rješavanje teških matematičkih problema.

AlphaProof je uspio naučiti kako logički zaključivati o matematičkim problemima gledajući točne odgovore. Ključni izazov u širenju ove vrste učenja je to što ne postoje točni odgovori za sve s čime bi se model mogao susresti. Chen kaže da je OpenAI uspio izgraditi sustav rasuđivanja koji je mnogo općenitiji. „Zaista mislim da smo tu došli do većeg napretka; mislim da po tome imamo prednost [nad konkurencijom],“ kaže Chen. „Zapravo je prilično dobar u rasuđivanju u svim područjima.”

Noah Goodman, profesor na Stanfordu koji je objavio radove o poboljšanju sposobnosti zaključivanja LLM-ova, smatra da bi ključ za općenitije treniranje mogao uključivati korištenje „pažljivo usmjerenog jezičnog modela i ručno izrađenih podataka” za treniranje. Dodaje da bi mogućnost dosljedne zamjene brzine rezultata za veću točnost bila „lijep napredak”.

Chen iz OpenAI-ja kaže da novi pristup rasuđivanju koji je razvila tvrtka pokazuje da napredak u umjetnoj inteligenciji ne mora koštati nevjerojatne količine računalne snage.

Jedna od uzbudljivih stvari u vezi s ovom paradigmom je to što vjerujemo da će nam omogućiti da isporučujemo inteligenciju po nižoj cijeni […] i mislim da je to doista glavna misija naše tvrtke.

Mark Chen, potpredsjednik Istraživanja, OpenAI
Komentari

Zainteresirani ste za jedan od treninga?

Ispunite prijavu i javit ćemo Vam se u najkraćem mogućem roku!

Markoja d.o.o.
Selska cesta 93
OIB: 10585552225

    Ispunite prijavu i javit ćemo Vam se u najkraćem mogućem roku!



    Sve vijesti

    Podržava