Artificiell Intelligens – hur stor är betydelsen?
Artificiell intelligens (AI) är ett system som har lärt sig eller lär sig hur man utför specifika uppgifter utan att vara uttryckligen programmerad i hur man gör det. Den mest lyckade forskningen och de flesta framstegen kommer idag från en av underdiciplinerna inom AI: maskininlärning (ML). Detta fokuserar på att lära maskiner att lära, genom att tillämpa algoritmer på data. Ofta används termerna AI och ML omväxlande.
För att ett problem ska vara en kandidat för en artificiell intelligens- eller maskininlärningslösning måste den vara lösbar med data och involvera tillräcklig relevant förvärvad information. Dessutom måste tillräckligt kraftfulla datorsystem vara tillgängliga för att utföra nödvändig bearbetning inom en rimlig tidsram.
Företagssystem uppdateras, modifieras och utökas ständigt för att tjäna nya användare och nya affärsfunktioner. I en sådan flytande miljö är det bra att ha ML-aktiverade “agenter” som kan skära igenom bullret och peka på avvikelser eller andra indikatorer som ger värde.
När artificiell intelligens sprids över säkerhetslandskapet höjer det redan säkerhetsnivån mot angripare – varje år blir det svårare att penetrera system. Attacker kommer sannolikt att anta sina egna tekniker baserade på artificiell intelligens, medan säkerhetspersonal använder och förskriver AI/ML defensivt för att förebygga och skydda.
Datavetenskap definierar AI-forskning som studien av “intelligenta agenter”, varje enhet som uppfattar sin miljö och vidtar åtgärder som maximerar sina chanser att lyckas uppnå sina mål. En mer detaljerad definition karaktäriserar AI som “ett systems förmåga att korrekt tolka externa data, att lära av sådan data och att använda dessa inlärningar för att uppnå specifika mål och uppgifter genom flexibel anpassning.”
En typisk AI analyserar sin miljö och vidtar åtgärder som maximerar dess chans att lyckas. En AI s avsedda verktygsfunktion (eller mål) kan vara enkel:
1 om AI vinner ett spel Go
0 annars
Eller komplex (“Utför åtgärder matematiskt som de som lyckades tidigare”).
Mål kan definieras eller induceras uttryckligen. Om AI är programmerad för “förstärkningslärande” kan mål implicit induceras genom att belöna vissa typer av beteende eller straffa andra.
Alternativt kan ett evolutionärt system inducera mål genom att använda en “fitnessfunktion” för att mutera och företrädesvis replikera högt. -scoring AI-system, som liknar hur djur utvecklades för att medfödda önskar vissa mål som att hitta mat.
AI kretsar ofta kring användningen av algoritmer. En algoritm är en uppsättning entydiga instruktioner som en mekanisk dator kan utföra. En komplex algoritm byggs ofta ovanpå andra, enklare algoritmer.
Många AI-algoritmer kan lära av data; de kan förbättra sig själva genom att lära sig nya heuristik (strategier eller “tumregler”, som har fungerat bra tidigare), eller själva kan skriva andra algoritmer. Några av de “lärlingar” som beskrivs nedan, inklusive Bayesian-nätverk, beslutsträd och närmaste granne, kunde teoretiskt sett (givet oändlig data, tid och minne) lära sig att approximera vilken funktion som helst, inklusive vilken kombination av matematiska funktioner som bäst skulle beskriva världen. Dessa lärlingar kunde därför hämta all möjlig kunskap genom att överväga alla möjliga hypoteser och matcha dem mot data. I praktiken är det sällan möjligt att överväga alla möjligheter på grund av fenomenet “kombinatorisk explosion”, där den tid som behövs för att lösa ett problem växer exponentiellt. Mycket av AI-forskning handlar om att ta reda på hur man kan identifiera och undvika att överväga ett brett spektrum av möjligheter som sannolikt inte är fördelaktiga. När man till exempel tittar på en karta och letar efter den kortaste körvägen från Denver till New York i öst, kan man i de flesta fall hoppa över att titta på någon väg genom San Francisco eller andra områden långt till väst; Således kan en AI som använder en sökfunktionsalgoritm som A* undvika den kombinatoriska explosionen som skulle inträffa om varje tänkbar väg måste övervägas.
Det tidigaste (och lättast att förstå) synsättet på AI var symbolik (som formell logik): “Om en annars frisk vuxen har feber, kan personen ha influensa”. Ett andra, mer allmänt tillvägagångssätt är Bayesiansk slutsats: “Om den nuvarande patienten har feber, justera sannolikheten att de har influensa på ett sådant sätt”. Det tredje stora tillvägagångssättet, extremt populärt i rutinmässiga affärs-AI-applikationer, är analogiserare som SVM och närmaste granne: “Efter att ha undersökt register över kända tidigare patienter vars temperatur, symtom, ålder och andra faktorer mest matchar den nuvarande patienten, X% av dessa patienter visade sig ha influensa”. Ett fjärde tillvägagångssätt är svårare att intuitivt förstå, men är inspirerat av hur hjärnans maskineri fungerar: det artificiella neurala nätverket använder sig av konstgjorda “neuroner” som kan lära sig genom att jämföra sig med den önskade utgången och ändra styrkan i kopplingarna mellan dess inre nervceller. för att “förstärka” anslutningar som tycktes vara användbara.
Dessa fyra huvudmetoder kan överlappa varandra och med evolutionära system; Neurala nät kan till exempel lära sig att dra slutsatser, att generalisera och göra analogier. Vissa system använder implicit eller uttryckligen flera av dessa tillvägagångssätt, tillsammans med många andra AI- och icke-AI-algoritmer; det bästa tillvägagångssättet är ofta olika beroende på problemet.
Jämfört med människor saknar befintlig AI flera funktioner i mänskligt “förnuft och resonemang” framför allt har människor kraftfulla resonemangsmekanismer om “naiv fysik”, såsom rum, tid och fysiska interaktioner. Detta gör att även små barn enkelt kan göra slutsatser som “Om jag rullar den här pennan från ett bord kommer den att falla på golvet”. Människor har också en kraftfull mekanism av “folkpsykologi” som hjälper dem att tolka naturliga språkmeningar som “Stadsfullmäktige vägrade demonstranterna tillstånd eftersom de förespråkade våld” (En generisk AI har svårt att urskilja om de som påstås förespråka våld är rådmän eller demonstranter. Denna brist på “gemensam kunskap” innebär att AI ofta gör andra misstag än människor, på ett sätt som kan verka obegripliga. Exempelvis kan befintliga självkörande bilar inte resonera om fotgängarnas placering eller avsikter på det exakta sätt som människor gör, och måste istället använda icke-mänskliga resonemang för att undvika olyckor.