Historien om Artificiell Intelligens: En Resa Genom Tiden - Expediten

Historien om Artificiell Intelligens: En Resa Genom Tiden

Introduktion till Artificiell Intelligens

Under första halvan av 1900-talet introducerades science fiction-konceptet om artificiellt intelligenta robotar till världen. Det började med den ”hjärtlösa” plåtmannen från Trollkarlen från Oz och fortsatte med den humanoida roboten som imiterade Maria i Metropolis. På 1950-talet fanns det en generation av forskare, matematiker och filosofer som hade konceptet artificiell intelligens (eller AI) kulturellt assimilerade i sina sinnen. En sådan person var Alan Turing, en ung brittisk polymat som utforskade den matematiska möjligheten för artificiell intelligens. Turing föreslog att människor använder tillgänglig information samt resonemang för att lösa problem och fatta beslut, så varför kan inte maskiner göra samma sak? Detta var den logiska ramen för hans arbete från 1950, Computing Machinery and Intelligence där han diskuterade hur man bygger intelligenta maskiner och hur man testar deras intelligens.

Förverkliga Artificiell Intelligens

Tyvärr räcker det inte att skriva på temat. Vad hindrade Turing från att börja arbeta direkt? Först behövde datorer förändras fundamentalt. Före 1949 saknade datorer en viktig förutsättning för intelligens: de kunde inte lagra kommandon, bara utföra dem. Med andra ord kunde datorer få instruktioner om vad de skulle göra, men kunde inte komma ihåg vad de gjort. För det andra var datorkraft extremt dyrt. I början av 1950-talet uppgick kostnaden för att hyra en dator till 200 000 dollar i månaden. Endast prestigefyllda universitet och stora teknikföretag hade råd att dillydally i dessa outforskade vatten. Ett bevis på konceptet samt förespråkande från högprofilerade personer behövdes för att övertyga finansieringskällor att maskinintelligens var värt att sträva efter.

Konferensen som Startade Allt

Fem år senare initialiserades beviset på konceptet genom Allen Newell, Cliff Shaw och Herbert Simon’s, Logic Theorist. Logic Theorist var ett program utformat för att efterlikna problemlösningsförmågan hos en människa och finansierades av Research and Development (RAND) Corporation. Det anses av många vara det första artificiella intelligensprogrammet och presenterades vid Dartmouth Summer Research Project on Artificial Intelligence  (DSRPAI) som leds av John McCarthy och Marvin Minsky 1956. Vid denna historiska konferens sammanförde McCarthy, som föreställde sig en stor samarbetsinsats, ledande forskare från olika områden för en öppen diskussion om artificiell intelligens, termen som han myntade vid själva händelsen. Tyvärr levde konferensen inte upp till McCarthys förväntningar; människor kom och gick som de ville, vilket lede till ett misslyckande i att enas om standardmetoder för området. Trots detta anpassade sig alla helhjärtat till känslan att AI var möjligt. Signifikansen av denna händelse kan inte undergrävas eftersom den katalyserade de närmaste tjugo åren av AI-forskning.

Berg-och-Dalbana av Framgångar och Motgångar

Från 1957 till 1974 blomstrade AI. Datorer kunde lagra mer information och blev snabbare, billigare och mer tillgängliga. Maskininlärningsalgoritmer förbättrades också och människor blev bättre på att veta vilken algoritm man skulle använda för sitt problem. Tidiga demonstrationer som Newell och Simons General Problem Solver och Joseph Weizenbaum’s ELIZA  visade löfte mot målen att lösa problem och att tolka talat språk. Dessa framgångar, samt förespråkande av ledande forskare (nämligen deltagarna i DSRPAI) övertygade statliga organ som Defense Advanced Research Projects Agency (DARPA) att finansiera  AI-forskning vid flera institutioner. Regeringen var särskilt intresserad av en maskin som kunde transkribera och översätta talat språk samt hög genomströmning av databehandling. Optimismen var hög och förväntningarna var ännu högre. 1970 sa Marvin Minsky till Life Magazine, ”från tre till åtta år kommer vi att ha en maskin med den allmänna intelligensen hos en genomsnittlig människa.” Emellertid fanns det fortfarande en lång väg att gå innan målen för naturlig språkbearbetning, abstrakt tänkande och självigenkänning kunde uppnås.

AI-timeline

När den ursprungliga dimman av AI bröts framträdde en bergskedja av hinder. Det största var bristen på datorkraft för att göra något väsentligt: datorer kunde helt enkelt inte lagra tillräckligt med information eller bearbeta den tillräckligt snabbt. För att kommunicera behöver man till exempel veta betydelsen av många ord och förstå dem i många kombinationer. Hans Moravec, en doktorand till McCarthy vid den tiden, sa att ”datorer var fortfarande miljontals gånger för svaga för att uppvisa intelligens.” När tålamodet minskade gjorde även finansieringen det, och forskningen kom till en långsam rullning i tio år.

På 1980-talet återupplivades AI av två källor: en utvidgning av algoritmverktygen och en ökning av medel. John Hopfield och David Rumelhart populariserade ”djupinlärning” -tekniker som tillät datorer att lära sig genom erfarenhet. Å andra sidan introducerades Edward Feigenbaum expertsystem som efterliknade beslutsprocessen för en mänsklig expert. Programmet skulle fråga en expert på ett område hur man skulle reagera i en given situation, och när detta lärdes för praktiskt taget varje situation kunde icke-experter få råd från det programmet. Expertsystem användes i stor utsträckning i branschen. Den japanska regeringen finansierade kraftigt expertsystem och andra AI-relaterade strävanden som en del av deras Fifth Generation Computer Project (FGCP). Från 1982-1990 investerade de 400 miljoner dollar med målen att revolutionera databehandling, implementera logikprogrammering och förbättra artificiell intelligens. Tyvärr uppfylldes inte majoriteten av de ambitiösa målen. Det kan dock hävdas att de indirekta effekterna av FGCP inspirerade en begåvad ung generation av ingenjörer och forskare. Oavsett upphörde finansieringen av FGCP, och AI föll ur rampljuset.

Ironiskt nog, i frånvaro av statlig finansiering och offentlig hype, blomstrade AI. Under 1990-talet och 2000-talet nåddes många av de viktiga målen för artificiell intelligens. 1997 besegrades schackmästaren och stormästaren Gary Kasparov av IBM’s Deep Blue, ett schackspelande datorprogram. Denna mycket publicerade match var första gången en regerande världsmästare i schack förlorade mot en dator och tjänade som ett stort steg mot ett artificiellt intelligent beslutsfattande program. Samma år implementerades mjukvara för taligenkänning, utvecklad av Dragon Systems, på Windows. Detta var ytterligare ett stort steg framåt. Det verkade som om det inte fanns något problem som maskiner inte kunde hantera.

Tiden Läker alla Sår

Vi har inte blivit klokare om hur vi kodar artificiell intelligens, så vad har förändrats? Det visar sig att den grundläggande gränsen för datalagring som höll oss tillbaka för 30 år sedan inte längre är ett problem. Moore’s lag som uppskattar att minnet och hastigheten på datorer fördubblas varje år, hade äntligen kommit ikapp och i många fall överträffat våra behov. Det är precis hur Deep Blue kunde besegra Gary Kasparov 1997, och hur Googles Alpha Go besegra den kinesiska Go-mästaren, Ke Jie, för bara några månader sedan. Det erbjuder en förklaring till berg-och-dalbanan av AI-forskning; vi mättar kapabiliteterna för AI till nivån för vår nuvarande datorkraft (datorlagring och bearbetningshastighet) och väntar sedan på att Moore’s lag ska komma ikapp igen.

Artificiell Intelligens är Överallt

Vi lever nu i åldern av ”big data en ålder där vi har kapacitet att samla in enorma summor information som är för besvärliga för en person att bearbeta. Tillämpningen av artificiell intelligens i detta avseende har redan varit mycket fruktbar inom flera branscher som teknik, bank  marknadsföring  och underhållning. Vi har sett att även om algoritmer inte förbättras mycket, tillåter stora data och massiv databehandling artificiell intelligens att lära sig genom brute force. Det kan finnas bevis att Moore’s lag sakta ner något, men ökningen av data har definitivt inte förlorat något momentum. Genombrott inom datavetenskap, matematik eller neurovetenskap tjänar alla som potentiella utvägar genom taket för Moore’s lag.

Framtiden

Så vad ligger i framtiden? På kort sikt ser AI-språk ut som nästa stora sak. Faktum är att det redan är igång. Jag kan inte komma ihåg när jag senast ringde till ett företag och direkt talade med en människa. Numera ringer maskinerna till och med mig! Man kan föreställa sig att interagera med ett expertsystem i en flytande konversation, eller att ha en konversation i två olika språk översatta i realtid. Vi kan också förvänta oss att se förarlösa bilar på vägen under de närmaste tjugo åren (och det är konservativt). På lång sikt är målet generell intelligens, det vill säga en maskin som överträffar mänskliga kognitiva förmågor i alla uppgifter. Detta är i linje med den kännande roboten som vi är vana att se på film. För mig verkar det otänkbart att detta skulle uppnås under de närmaste 50 åren. Även om kapaciteten är där skulle etiska frågor fungera som en stark barriär mot förverkligande. När den tiden kommer (men bättre även innan tiden kommer), måste vi ha en allvarlig diskussion om maskinpolicy och etik (ironiskt nog båda grundläggande mänskliga ämnen), men för närvarande låter vi AI stadigt förbättras och löpa amok i samhället.

Författare: Joakim Allgefält & Fredrik Danielsson jajautbildning.se