
đĄ Arge optimistens funderingar: AI-utvecklingen har nĂ„tt fas tvĂ„
AI-utvecklingen har nÄtt fas tvÄ, dÀr vi skapar nytt baserat pÄ vad vi lÀrt oss i fas ett. Kan kÀnnas uppenbart, men förvÄnansvÀrt mÄnga hÀnger upp sig pÄ nuvarande brister och bedömer framtiden helt fel.
Dela artikeln
Mina funderingar, tips och annat smÄtt och gott som jag tror passar en faktabaserad optimist. För dig som Àr Premium Supporter hos Warp News, men det gÄr fint att dela det med vÀnner och bekanta.
đ€ Fas tvĂ„
Efter att ChatGPT slÀpptes i november 2022 sÄ bestod AI-utvecklingen de kommande tvÄ Ären i huvudsak av att anvÀnda mer trÀningsdata och fler processorer för att skapa bÀttre modeller. Förenklat beskrivet sÄ var det mer av samma. Vi kan kalla det fas 1.
NÀr mÀnniskor började anvÀnda tjÀnsterna sÄ kom vi gemensamt pÄ att nÄgot som kallas chain-of-thought fick AI-tjÀnsterna att prestera bÀttre resultat. AlltsÄ att en prompt som innehÄller steg-för-steg-instruktioner. "Gör först X, sedan Y, sedan Z". Denna metod kunde leverera förbluffande bra resultat, som mer trÀffsÀker finansanalys Àn mÀnskliga finansanalytiker.

Open AI lÀrde av detta och byggde in chain-of-thought i sina modeller och pratar nu om att alla modeller kommer vara sÄ kallade reasoning models. Idén om AI som resonerar med sig sjÀlv Àr ungefÀr lika gammal som AI, men det var först nÀr man sÄg styrkan i chain-of-thought som den byggdes in de stora sprÄkmodellerna. DÀrmed kan man lansera nya tjÀnster, likt Deep Research som jag skrev om nyligen.
En annan utveckling Àr den DeepSeek stod för. Eftersom det Àr ett kinesiskt företag lider de brist pÄ de allra bÀsta processorn, dÄ USA har exportrestriktioner pÄ dem. Det tvingade dem att vara kreativa och de kom pÄ ett sÀtt att trÀna en AI-modell utan att anvÀnda sÄ mÄnga och sÄ bra processorer. De anvÀnde ocksÄ styrkan i att AI-modellen kan resonera mig sig sjÀlv. Jag beskrev hur i den hÀr texten.
Vi har dÀrmed kommit in i fas tvÄ. DÀr nya idéer föds ovanpÄ det gamla. SÄ som utveckling alltid sker. Vi kommer pÄ saker nÀr vi anvÀnder tekniken och stöter pÄ möjligheter och problem.
Detta kanske kÀnns som den mest uppenbara spaningen nÄgonsin, men förvÄnansvÀrt mÄnga hÀnger upp sig pÄ nuvarande brister och tycks inte kunna se att de kommer lösas eller bli mindre. Baserat pÄ det drar de lÄngtgÄende och felaktiga slutsatser. "Det gÄr aaaldriiiig", som vi sÀger i NÀrke.
Hallucinationer Àr det största problemet med stora sprÄkmodeller. Det Àr ett problem som kommer att lösas. NÀr och hur vet vi inte Ànnu, men pÄ nÄgot sÀtt kommer det göras.
Mathias Sundin
Arge optimisten
â Annat smĂ„tt och gott
đș SuverĂ€n grundkurs i stora sprĂ„kmodeller som ChatGPT
Andrej Karpathy var med och startade Open AI och ledde sedan utvecklingen av sjÀlvkörande bilar pÄ Tesla. Han gÄr grundligt igenom hur en stor sprÄkmodell skapas och fungerar, men pÄ ett sÀtt som vi vanliga dödliga begriper.
đ UrĂ„ldig pessimism

đ "Vi kommer fĂ„ slut pĂ„ litium!"
Nej.

đ€Ą "För farlig för att slĂ€ppa!"
Kom ihÄg att 2019 menade man att GPT-2 var sÄ kraftfull att den var farlig att slÀppa till allmÀnheten.
Nu Àr vi pÄ GPT 4, med hundratals miljoner anvÀndare och farhÄgorna har inte förverkligats.

Mathias Sundin
Arge optimisten