Droner og selvkjørende biler som våpen: hvorfor vi må være redde for hackere
Droner og selvkjørende biler som våpen: hvorfor vi må være redde for hackere
Anonim

Hvis kunstig intelligens faller i feil hender, kan den siviliserte verden stupe ut i kaos.

Droner og selvkjørende biler som våpen: hvorfor vi må være redde for hackere
Droner og selvkjørende biler som våpen: hvorfor vi må være redde for hackere

Ingen vil benekte at kunstig intelligens kan ta livene våre til neste nivå. AI er i stand til å løse mange problemer som er utenfor menneskets makt.

Imidlertid tror mange at superintelligensen definitivt vil ødelegge oss, som SkyNet, eller vil begynne å utføre eksperimenter på mennesker, som GLDoS fra Portal-spillet. Ironien er at bare mennesker kan gjøre kunstig intelligens god eller ond.

Hvorfor kunstig intelligens kan være en alvorlig trussel
Hvorfor kunstig intelligens kan være en alvorlig trussel

Forskere fra Yale University, Oxford, Cambridge og OpenAI har publisert en rapport om misbruk av kunstig intelligens. Den sier at den virkelige faren kommer fra hackere. Ved hjelp av ondsinnet kode kan de forstyrre driften av automatiserte systemer under kontroll av AI.

Forskere frykter at velmente teknologier vil bli skadet. For eksempel kan overvåkingsutstyr brukes ikke bare til å fange terrorister, men også til å spionere på vanlige borgere. Forskere er også bekymret for kommersielle droner som leverer mat. Det er lett å avskjære dem og plante noe eksplosivt.

Et annet scenario for destruktiv bruk av AI er selvkjørende biler. Det er nok å endre noen få linjer med kode, og maskiner vil begynne å ignorere sikkerhetsregler.

Hvorfor kunstig intelligens kan være en alvorlig trussel
Hvorfor kunstig intelligens kan være en alvorlig trussel

Forskere mener trusselen kan være digital, fysisk og politisk.

  • Kunstig intelligens brukes allerede for å studere sårbarhetene til ulike programvarekoder. I fremtiden kan hackere lage en bot som vil omgå enhver beskyttelse.
  • Ved hjelp av AI kan en person automatisere mange prosesser: for eksempel kontrollere en sverm av droner eller en gruppe biler.
  • Ved hjelp av teknologier som DeepFake er det mulig å påvirke det politiske livet i staten ved å spre falsk informasjon om verdensledere som bruker roboter på Internett.

Disse skremmende eksemplene eksisterer så langt bare som en hypotese. Forfatterne av studien foreslår ikke en fullstendig avvisning av teknologi. I stedet mener de at nasjonale myndigheter og store selskaper bør ta seg av sikkerheten mens AI-industrien fortsatt er i sin spede begynnelse.

Politikere må studere teknologi og samarbeide med eksperter på området for å effektivt regulere opprettelsen og bruken av kunstig intelligens.

Utviklere må på sin side vurdere faren høyteknologi utgjør, forutse de verste konsekvensene og advare verdensledere om dem. Rapporten oppfordrer AI-utviklere til å slå seg sammen med sikkerhetseksperter på andre felt og se om prinsippene som sikrer sikkerheten til disse teknologiene kan brukes til å beskytte kunstig intelligens.

Hele rapporten beskriver problemet mer detaljert, men poenget er at AI er et kraftig verktøy. Alle interesserte bør studere den nye teknologien og sørge for at den ikke brukes til kriminelle formål.

Anbefalt: