Kärsitkö chatbot-väsymyksestä? Oletko turhautunut siihen, että singulariteetti peruttiin? Etsitkö jotain uutta, joka antaa sinulle toivoa? Tässä on harhainen, mutta "hei, siinä on järkeä" -suunnitelmani rakentaa superälykkyyttä pienessä indie-tutkimuslaboratoriossani (huom: vaihdan tarkkuuden pedagogiikkaan) Ensinnäkin tausta: Olen 33-vuotias kaveri, joka on käyttänyt viimeiset 22 vuotta ohjelmoinnissa. Ajan mittaan olen esittänyt monia kysymyksiä tietojenkäsittelyn luonteesta ja kerännyt melko... omituinen... Oivalluksia. muutama vuosi sitten rakensin HVM:n, järjestelmän, joka pystyy ajamaan ohjelmia esoteerisella kielellä nimeltä "Haskell" GPU:lla - kyllä, saman sirun, joka sai syväoppimisen toimimaan ja sytytti koko tämän tekoälysyklin. mutta miten Haskell liittyy tekoälyyn? No, se on pitkä tarina. kuten vanhimmat saattavat muistaa, tuolloin se, mitä kutsuimme "tekoälyksi", oli... erilainen. lähes 3 vuosikymmentä sitten tietokone voitti ensimmäistä kertaa shakin maailmanmestarin, mikä herätti monia keskusteluja AGI:stä ja singulariteetista - aivan kuten nykyäänkin! Deep Blue -niminen järjestelmä oli hyvin erilainen kuin nykyiset mallimme. Se ei käyttänyt muuntajia. se ei käyttänyt hermoverkkoja ollenkaan. itse asiassa "mallia" ei ollut. se oli puhdas "symbolinen tekoäly", mikä tarkoittaa, että se oli vain tavallinen vanha algoritmi, joka skannasi miljardeja mahdollisia liikkeitä, nopeammin ja syvemmälle kuin kukaan ihminen pystyisi, voittaen meidät pelkällä raa'alla voimalla. tämä käynnisti lupaavan symbolisen tekoälytutkimuksen aallon. evoluutioalgoritmit, tietokaaviot, automatisoitu lauseiden todistaminen, SAT/SMT-ratkaisijat, rajoitusten ratkaisijat, asiantuntijajärjestelmät ja paljon muuta. Valitettavasti ajan myötä lähestymistapa törmäsi seinään. käsin rakennetut säännöt eivät skaalautuneet, symboliset järjestelmät eivät pystyneet *oppimaan* dynaamisesti ja kupla puhkesi. uusi tekoälytalvi alkoi. Vasta vuosia myöhemmin erikoinen tekijöiden lähentyminen muutti kaiken. Tutkijat pyyhkivät pölyt vanhasta ideasta - hermoverkoista - mutta tällä kertaa heillä oli jotain uutta: GPU:t. Nämä grafiikkasirut, jotka on alun perin rakennettu videopelien renderöintiin, osoittautuivat täydellisiksi neuroverkkojen vaatimiin massiivisiin matriisikertoihin. Yhtäkkiä se, mikä kesti viikkoja, voitiin tehdä tunneissa. Syväoppiminen räjähti, ja tässä sitä ollaan tänään, kun muuntajat syövät maailmaa. mutta tässä on asia: siirsimme vain *yhden* tekoälyhaaran GPU:ille - konnektionistisen, numeerisen. symbolinen puoli? se on edelleen jumissa CPU:n kivikaudella. Haskell on erityinen kieli, koska se yhdistää todistusten kielen (eli idiomin, jota matemaatikot käyttävät lauseiden ilmaisemiseen) ohjelmoinnin kieleen (eli siihen, mitä kehittäjät käyttävät sovellusten rakentamiseen). Tämä tekee siitä ainutlaatuisen sopivan symboliseen päättelyyn - juuri sellaiseen laskentaan, jota Deep Blue käytti, mutta nyt voimme ajaa sitä massiivisesti rinnakkain nykyaikaisella laitteistolla. (Tarkemmin sanottuna pelkkä massiivinen GPU-rinnakkaisuus ei ole ainoa asia, jonka HVM tuo pöytään. Osoittautuu, että se johtaa myös *asymptoottisiin* nopeuksiin joissakin tapauksissa. Ja tämä on keskeinen syy uskoa lähestymistapaamme: aiemmat symboliset menetelmät eivät olleet vain laskennallisesti nälkiintyneitä, vaan ne olivat eksponentiaalisesti hitaita algoritmisessa mielessä. Ei ihme, etteivät ne toimineet. Heillä ei ollut siihen mahdollisuutta.) Teesini on yksinkertainen: nyt kun voin käyttää Haskellia GPU:illa ja tämän asymptoottisen nopeuden vuoksi, pystyn herättämään henkiin nämä vanhat symboliset tekoälymenetelmät, skaalaamaan niitä suuruusluokkia ja katsomaan, mitä tapahtuu. ehkä, vain ehkä, yksi niistä yllättää meidät. ...