Hva kunstig intelligens faktisk kan gjøre i dag
Hva kunstig intelligens faktisk kan gjøre i dag
Anonim

Spoilervarsling: Det er fortsatt lenge til maskinenes opprør.

Hva kunstig intelligens faktisk kan gjøre i dag
Hva kunstig intelligens faktisk kan gjøre i dag

Når Elon Musk introduserer den humanoide roboten Tesla Bot, ser det ut til at en ny vitenskapelig revolusjon er rett rundt hjørnet. Litt mer – og kunstig intelligens (AI) vil overgå mennesket, og maskiner vil erstatte oss på jobben. Professorene Gary Marcus og Ernest Davis, begge anerkjente AI-eksperter, blir imidlertid bedt om ikke å forhaste seg med slike konklusjoner.

I Artificial Intelligence Reboot forklarer forskere hvorfor moderne teknologi er langt fra ideell. Med tillatelse fra forlaget "Alpina PRO" publiserer Lifehacker et utdrag fra første kapittel.

På dette tidspunktet er det et stort gap – en ekte kløft – mellom vår ambisjon og virkeligheten av kunstig intelligens. Denne kløften har oppstått på grunn av uløstheten til tre spesifikke problemer, som hver må håndteres ærlig.

Den første av disse er det vi kaller godtroenhet, som er basert på at vi mennesker egentlig ikke har lært å skille mellom mennesker og maskiner, og dette gjør det lett å lure oss. Vi tillegger intelligens til datamaskiner fordi vi selv har utviklet oss og levd blant mennesker som i stor grad baserer sine handlinger på abstraksjoner som ideer, tro og ønsker. Maskinenes oppførsel er ofte overfladisk lik oppførselen til mennesker, så vi tildeler raskt maskiner samme type grunnleggende mekanismer, selv om maskinene ikke har det.

Vi kan ikke la være å tenke på maskiner i kognitive termer («Min datamaskin tror jeg har slettet filen min»), uansett hvor enkle reglene maskinene faktisk følger. Men konklusjonene som rettferdiggjør seg selv når de brukes på mennesker kan være helt feil når de brukes på kunstig intelligens-programmer. I respekt for en grunnleggende læresetning innen sosialpsykologi, kaller vi dette den grunnleggende validitetsfeilen.

Et av de tidligste tilfellene av denne feilen skjedde på midten av 1960-tallet, da en chatbot ved navn Eliza overbeviste noen om at han virkelig forsto tingene de fortalte ham. Faktisk plukket Eliza opp nøkkelord, gjentok det siste personen sa til henne, og i en blindvei grep hun til vanlige samtaletriks som «Fortell meg om barndommen din». Hvis du nevnte moren din, ville hun spurt deg om familien din, selv om hun ikke hadde noen anelse om hva familie egentlig er eller hvorfor det er viktig for folk. Det var bare et sett med triks, ikke en demonstrasjon av ekte intelligens.

Til tross for at Eliza ikke forsto folk i det hele tatt, ble mange brukere lurt av dialogene med henne. Noen brukte timer på å skrive fraser på tastaturet, snakke på denne måten med Eliza, men feiltolke chatbot-triksene, ta feil av papegøyens tale for nyttige, oppriktige råd eller sympati.

Joseph Weisenbaum Skaperen av Eliza.

Folk som visste godt at de snakket med en maskin glemte snart dette faktum, akkurat som teaterelskere la bort vantroen en stund og glemmer at handlingen de er vitne til ikke har rett til å bli kalt ekte.

Elizas samtalepartnere krevde ofte tillatelse til en privat samtale med systemet og etter samtalen insisterte på, til tross for alle mine forklaringer, at maskinen virkelig forsto dem.

I andre tilfeller kan feilen i vurderingen av ektheten være fatal i ordets bokstavelige forstand. I 2016 stolte en eier av en automatisert Tesla-bil så mye på den tilsynelatende sikkerheten til autopilotmodus at han (ifølge historiene) fordypet seg fullstendig i å se Harry Potter-filmene, og lot bilen gjøre alt på egen hånd.

Alt gikk bra – helt til det på et tidspunkt ble dårlig. Etter å ha kjørt hundrevis eller til og med tusenvis av mil uten en ulykke, kolliderte bilen (i alle betydninger av ordet) med en uventet hindring: en hvit lastebil krysset motorveien, og Tesla stormet rett under tilhengeren og drepte bileieren på stedet.. (Det så ut til at bilen advarte sjåføren flere ganger om å ta kontroll, men sjåføren så ut til å være for avslappet til å reagere raskt.)

Moralen i denne historien er klar: det faktum at en enhet kan virke "smart" i et øyeblikk eller to (og til og med seks måneder) betyr ikke i det hele tatt at den virkelig er slik eller at den kan takle alle omstendigheter der en person ville reagere adekvat.

Det andre problemet kaller vi illusjonen om rask fremgang: å ta feil av fremgang i kunstig intelligens, forbundet med å løse enkle problemer, for fremgang, forbundet med å løse virkelig vanskelige problemer. Dette skjedde for eksempel med IBM Watson-systemet: fremgangen i spillet Jeopardy! virket veldig lovende, men faktisk viste systemet seg å være mye lenger unna å forstå menneskelig språk enn utviklerne hadde regnet med.

Det er mulig at DeepMinds AlphaGo-program vil følge samme vei. Go-spillet, som sjakk, er et idealisert informasjonsspill der begge spillere kan se hele brettet når som helst og beregne konsekvensene av trekk med brute force.

I de fleste tilfeller, i det virkelige liv, er det ingen som vet noe med fullstendig sikkerhet; dataene våre er ofte ufullstendige eller forvrengte.

Selv i de enkleste tilfellene er det mye usikkerhet. Når vi bestemmer oss for om vi skal gå til legen til fots eller ta T-banen (siden dagen er overskyet), vet vi ikke nøyaktig hvor lang tid det vil ta å vente på T-banetoget, om toget setter seg fast på veien, om vi vil stappe inn i vognen som sild i en tønne, ellers blir vi våte i regnet ute, og tør ikke ta T-banen, og hvordan legen vil reagere på at vi er forsinket.

Vi jobber alltid med den informasjonen vi har. Ved å spille Go med seg selv millioner av ganger, har DeepMind AlphaGo-systemet aldri håndtert usikkerhet, det vet rett og slett ikke hvilken mangel på informasjon eller dets ufullstendighet og inkonsekvens, for ikke å nevne kompleksiteten i menneskelig interaksjon.

Det er en annen parameter som gjør at tankespill som for eksempel går veldig annerledes enn den virkelige verden, og dette har igjen med data å gjøre. Selv komplekse spill (hvis reglene er strenge nok) kan modelleres nesten perfekt, slik at de kunstige intelligenssystemene som spiller dem enkelt kan samle inn de enorme datamengdene de trenger for å trene. Når det gjelder Go, kan en maskin derfor simulere et spill med mennesker ved ganske enkelt å spille mot seg selv; selv om systemet trenger terabyte med data, vil det lage det selv.

Programmerere kan dermed få helt rene simuleringsdata med liten eller ingen kostnad. Tvert imot, i den virkelige verden eksisterer ikke helt rene data, det er umulig å simulere dem (siden spillereglene er i stadig endring), og desto vanskeligere er det å samle mange gigabyte med relevante data ved prøveversjon og feil.

I virkeligheten har vi bare noen få forsøk på å teste ulike strategier.

Vi er for eksempel ikke i stand til å gjenta et besøk til legen 10 millioner ganger, gradvis justere parametrene for beslutninger før hvert besøk, for å dramatisk forbedre oppførselen vår når det gjelder transportvalg.

Hvis programmerere ønsker å trene en robot til å hjelpe eldre (for eksempel for å hjelpe med å legge syke mennesker til sengs), vil hver bit av data være verdt ekte penger og ekte menneskelig tid; det er ingen måte å samle inn alle nødvendige data ved å bruke simuleringsspill. Selv kollisjonstestdukker kan ikke erstatte ekte mennesker.

Det er nødvendig å samle inn data om ekte eldre mennesker med forskjellige egenskaper ved senile bevegelser, på forskjellige typer senger, forskjellige typer pyjamas, forskjellige typer hus, og her kan du ikke gjøre feil, fordi å slippe en person selv på en avstand på flere centimeter fra sengen ville være en katastrofe. I dette tilfellet står det på spill en viss fremgang (så langt den mest elementære) på dette området har blitt oppnådd ved bruk av metodene for smal kunstig intelligens. Det er utviklet datasystemer som spiller nesten på nivå med de beste menneskelige spillerne i videospillene Dota 2 og Starcraft 2, der til enhver tid bare en del av spillverdenen vises til deltakerne, og dermed står hver spiller overfor problem med mangel på informasjon - det med Clausewitzs lette hånd kalles "det ukjentes tåke." Imidlertid forblir de utviklede systemene fortsatt svært snevert fokuserte og ustabile i drift. For eksempel har AlphaStar-programmet som spiller i Starcraft 2 bare lært ett spesifikt løp fra en lang rekke karakterer, og nesten ingen av disse utviklingene er spillbare som alle andre raser. Og det er selvfølgelig ingen grunn til å tro at metodene som brukes i disse programmene er egnet til å gjøre vellykkede generaliseringer i mye mer komplekse situasjoner i det virkelige liv. virkelige liv. Som IBM har oppdaget ikke én gang, men allerede to ganger (først i sjakk, og deretter i Jeopardy!), garanterer ikke suksess i problemer fra en lukket verden suksess i en åpen verden.

Den tredje sirkelen av den beskrevne kløften er en overvurdering av pålitelighet. Om og om igjen ser vi at så snart folk ved hjelp av kunstig intelligens finner en løsning på et eller annet problem som kan fungere uten feil en stund, antar de automatisk at med revisjon (og med litt større datamengde) vil fungere pålitelig.tid. Men dette er ikke nødvendigvis tilfelle.

Vi tar igjen biler uten sjåfører. Det er relativt enkelt å lage en demo av et autonomt kjøretøy som vil kjøre riktig langs tydelig markert kjørefelt på en rolig vei; men folk har vært i stand til å gjøre dette i over et århundre. Det er imidlertid mye vanskeligere å få disse systemene til å fungere under vanskelige eller uventede omstendigheter.

Som Missy Cummings, direktør for Humans and Autonomy Laboratory ved Duke University (og en tidligere jagerpilot fra den amerikanske marinen), fortalte oss i en e-post, er spørsmålet ikke hvor mange mil en førerløs bil kan kjøre uten en ulykke, men i omfanget. som disse bilene er i stand til å tilpasse seg til skiftende situasjoner. Ifølge hennes Missy Cummings, e-post til forfattere 22. september 2018., moderne semi-autonome kjøretøy "fungerer vanligvis bare i et veldig smalt område av forhold, som ikke sier noe om hvordan de kan operere under mindre enn ideelle forhold."

Å se fullstendig pålitelig ut på millioner av testmil i Phoenix betyr ikke at du presterer bra under monsunen i Bombay.

Denne grunnleggende forskjellen mellom hvordan autonome kjøretøy oppfører seg under ideelle forhold (som solfylte dager på forstadsveier med flere felter) og hva de kan gjøre under ekstreme forhold, kan lett bli et spørsmål om suksess og fiasko for en hel industri.

Med så lite vekt på autonom kjøring under ekstreme forhold og at dagens metodikk ikke har utviklet seg i retning av å sikre at autopiloten vil fungere korrekt under forhold som så vidt begynner å bli vurdert på ordentlig, kan det fort bli klart at milliarder av dollar har blitt brukt på metoder for å bygge selvkjørende biler som rett og slett ikke klarer å levere menneskelignende kjørepålitelighet. Det er mulig at for å oppnå nivået av teknisk tillit som vi trenger, kreves tilnærminger som er fundamentalt forskjellige fra de nåværende.

Og biler er bare ett eksempel av mange lignende. I moderne forskning på kunstig intelligens har dens pålitelighet blitt globalt undervurdert. Dette er delvis fordi det meste av den nåværende utviklingen på dette området involverer problemer som er svært feiltolerante, som å anbefale annonsering eller promotere nye produkter.

Faktisk, hvis vi anbefaler deg fem typer produkter, og du bare liker tre av dem, vil ingen skade skje. Men i en rekke kritiske AI-applikasjoner for fremtiden, inkludert førerløse biler, eldreomsorg og helseplanlegging, vil menneskelignende pålitelighet være avgjørende.

Ingen vil kjøpe en hjemmerobot som trygt kan bære din eldre bestefar til sengs bare fire av fem ganger.

Selv i de oppgavene der moderne kunstig intelligens teoretisk sett skal fremstå i best mulig lys, oppstår det jevnlig alvorlige feil, noen ganger ser de veldig morsomme ut. Et typisk eksempel: datamaskiner har i prinsippet allerede lært ganske godt hvordan de gjenkjenner hva som er (eller skjer) i dette eller det bildet.

Noen ganger fungerer disse algoritmene utmerket, men ofte produserer de helt utrolige feil. Hvis du viser et bilde til et automatisert system som genererer bildetekster for fotografier av hverdagsscener, får du ofte et svar som er bemerkelsesverdig likt det et menneske ville skrevet; for eksempel, for scenen nedenfor, hvor en gruppe mennesker spiller frisbee, gir Googles svært publiserte undertekstgenereringssystem det nøyaktige navnet.

Fig 1.1. Gruppe unge mennesker som spiller frisbee (plausibel bildetekst, automatisk generert av AI)
Fig 1.1. Gruppe unge mennesker som spiller frisbee (plausibel bildetekst, automatisk generert av AI)

Men fem minutter senere kan du enkelt få et helt absurd svar fra det samme systemet, som for eksempel skjedde med dette veiskiltet, som noen satte klistremerker på: datamaskinen kalt Skaperne av systemet forklarte ikke hvorfor denne feilen oppstod, men slike tilfeller er ikke uvanlige. Vi kan anta at systemet i dette spesielle tilfellet klassifiserte (kanskje med tanke på farge og tekstur) fotografiet som likt de andre bildene (som det lærte) merket som "et kjøleskap fylt med mye mat og drikke." Naturligvis forsto ikke datamaskinen (som en person lett kunne forstå) at en slik inskripsjon bare ville være hensiktsmessig i tilfelle av en stor rektangulær metallboks med forskjellige (og selv da ikke alle) gjenstander inni. denne scenen er "et kjøleskap med mye mat og drikke."

Ris. 1.2. Kjøleskap fylt med massevis av mat og drikke (helt usannsynlig overskrift, laget av samme system som ovenfor)
Ris. 1.2. Kjøleskap fylt med massevis av mat og drikke (helt usannsynlig overskrift, laget av samme system som ovenfor)

På samme måte identifiserer førerløse biler ofte riktig hva de "ser", men noen ganger ser de ut til å overse det åpenbare, som i tilfellet med Tesla, som regelmessig krasjet inn i parkerte brannbiler eller ambulanser på autopilot. Blindsoner som disse kan være enda farligere hvis de er plassert i systemer som styrer strømnettet eller er ansvarlige for å overvåke folkehelsen.

For å bygge bro mellom ambisjoner og realitetene til kunstig intelligens, trenger vi tre ting: en klar bevissthet om verdiene som står på spill i dette spillet, en klar forståelse av hvorfor moderne AI-systemer ikke utfører funksjonene sine pålitelig nok, og, til slutt, en ny utviklingsstrategi maskintenkning.

Siden innsatsen på kunstig intelligens er veldig høy når det gjelder jobber, sikkerhet og samfunnsstruktur, er det et presserende behov for oss alle - AI-fagfolk, relaterte yrker, vanlige borgere og politikere - for å forstå tingenes sanne tilstand. på dette feltet for å lære kritisk vurdere nivået og arten av utviklingen av dagens kunstige intelligens.

Akkurat som det er viktig for innbyggere som er interessert i nyheter og statistikk å forstå hvor lett det er å villede folk med ord og tall, så er her et stadig viktigere aspekt ved forståelsen slik at vi kan finne ut hvor kunstig intelligens er. Kun reklame, men hvor er det ekte; hva han er i stand til nå, og hva han ikke vet hvordan og kanskje ikke vil lære.

Det viktigste er å innse at kunstig intelligens ikke er magi, men bare et sett med teknikker og algoritmer, som hver har sine egne styrker og svakheter, er egnet for noen oppgaver og ikke egnet for andre. En av hovedgrunnene til at vi satte oss for å skrive denne boken er at mye av det vi leser om kunstig intelligens ser ut til å være en absolutt fantasi, som vokser ut av en ubegrunnet tillit til den nesten magiske kraften til kunstig intelligens.

I mellomtiden har denne fiksjonen ingenting å gjøre med moderne teknologiske evner. Dessverre har diskusjonen om AI blant allmennheten vært og er sterkt påvirket av spekulasjoner og overdrivelser: de fleste aner ikke hvor vanskelig det er å skape universell kunstig intelligens.

La oss avklare videre diskusjon. Selv om å avklare realitetene knyttet til AI vil kreve seriøs kritikk fra oss, er vi selv på ingen måte motstandere av kunstig intelligens, vi liker virkelig denne siden av teknologisk fremgang. Vi har levd en betydelig del av livet vårt som profesjonelle på dette feltet, og vi ønsker at det skal utvikle seg så raskt som mulig.

Den amerikanske filosofen Hubert Dreyfus skrev en gang en bok om hvilke høyder, etter hans mening, kunstig intelligens aldri kan nå. Det er ikke dette denne boken handler om. Den fokuserer delvis på hva AI for øyeblikket ikke kan gjøre og hvorfor det er viktig å forstå det, men en betydelig del av det snakker om hva som kan gjøres for å forbedre datamaskintenkning og utvide den til områder der den nå har problemer med å gjøre først.

Vi vil ikke at kunstig intelligens skal forsvinne; vi ønsker at den skal forbedres radikalt, slik at vi virkelig kan stole på den og løse med dens hjelp menneskehetens mange problemer. Vi har mye kritikk om dagens tilstand av kunstig intelligens, men kritikken vår er en manifestasjon av kjærlighet til vitenskapen vi driver med, ikke en oppfordring til å gi opp og forlate alt.

Kort sagt, vi tror at kunstig intelligens virkelig kan forvandle vår verden på alvor; men vi tror også at mange av de grunnleggende antakelsene om AI må endres før vi kan snakke om reell fremgang. Vår foreslåtte "tilbakestilling" av kunstig intelligens er slett ikke en grunn til å avslutte forskningen (selv om noen kanskje forstår boken vår i akkurat denne ånden), men snarere en diagnose: hvor står vi fast nå og hvordan kommer vi oss ut av dagens situasjon.

Vi tror at den beste måten å komme seg videre på kan være å se innover, med tanke på strukturen i vårt eget sinn.

Virkelig intelligente maskiner trenger ikke å være eksakte kopier av mennesker, men alle som ser på kunstig intelligens ærlig, vil se at det fortsatt er mye å lære av mennesker, spesielt fra små barn, som på mange måter er langt overlegne maskiner i deres evne til å absorbere og forstå nye konsepter.

Medisinske forskere karakteriserer ofte datamaskiner som "overmenneskelige" (på en eller annen måte) systemer, men den menneskelige hjernen er fortsatt langt overlegen sine silisium-motstykker på minst fem aspekter: vi kan forstå språk, vi kan forstå verden, vi kan fleksibelt tilpasse seg nye omstendigheter, kan vi raskt lære nye ting (selv uten store datamengder) og kan resonnere i møte med ufullstendig og til og med motstridende informasjon. På alle disse frontene er moderne kunstig intelligens-systemer håpløst bak mennesker.

Omstart av kunstig intelligens
Omstart av kunstig intelligens

Artificial Intelligence: Reboot vil interessere folk som ønsker å forstå moderne teknologier og forstå hvordan og når en ny generasjon AI kan gjøre livene våre bedre.

Anbefalt: