Droner og ubemannede kjøretøyer som et våpen: hvorfor vi trenger å være redd for hackere
Av Teknologi / / December 19, 2019
Ingen vil benekte at kunstig intelligens kan sette livene våre på nytt nivå. AI er i stand til å løse mange problemer som er utenfor kraften i mennesket.
Men mange mener at superintelligence vil ønske å ødelegge oss, som Skynet, eller begynne å utføre eksperimenter på mennesker som GLaDOS fra spillet Portal. Det ironiske er at for å få en kunstig intelligens kan bare bra folk eller ondt.
Forskere fra Yale, Oxford, Cambridge, og selskapet lagt OpenAI rapporten på misbruk av kunstig intelligens. Den sier at den virkelige faren kommer fra hackere. Med hjelp av ondsinnet kode, kan de forstyrre driften av automatiserte systemer i henhold AI kontroll.
Forskere frykter at teknologien opprettet med gode intensjoner, vil bli brukt til skade. For eksempel kan overvåkingen brukes ikke bare for å fange terrorister, men også for å spionere på vanlige borgere. Forskerne har også betenkelig kommersielle droner, som leverer mat. De er enkle å fange opp og sette en noe eksplosiv.
Et annet scenario er ødeleggende bruk av AI - ubemannede kjøretøyer. Det er nok til å endre noen få linjer med kode, og maskinen vil begynne å ignorere sikkerhetsregler.
Forskere tror at trusselen kan være digitale, fysisk og politisk.
- Kunstig intelligens er allerede brukt til å studere sårbarheter i ulike programkoder. I fremtiden kan hackere skape en slik bot, som vil omgå noen beskyttelse.
- Med AI person kan automatisere mange av prosessene, for eksempel for å kontrollere en sverm av droner, eller en gruppe av kjøretøy.
- Med teknologier som DeepFake, kan påvirke det politiske livet av staten, spre falsk informasjon om lederne i verden via Internett bots.
Disse skremmende eksemplene eksisterer bare som en hypotese. Studiens forfattere tilbyr ikke en fullstendig avvisning av teknologi. I stedet mener de at regjeringer og store selskaper bør ta vare på sikkerheten, mens industrien kunstig intelligens barndom.
Politikere bør lære teknologien og arbeide sammen med eksperter på området, for å effektivt regulere etablering og bruk av kunstig intelligens.
Utviklere, i sin tur, bør vurdere faren utgjøres av høy-teknologi, for å forutse og forhindre de verste konsekvensene av disse verdens ledere. Rapporten etterlyser AI utviklere: teamet opp med sikkerhetseksperter i andre områder og for å finne ut om du kan bruke de prinsippene som ivareta sikkerheten for disse teknologiene for beskyttelse av kunstige intelligens.
Full rapport beskriver problemet i mer detalj, men det faktum at AI - en kraftig verktøy. Alle interessenter trenger å lære en ny teknologi og sørge for at det ikke blir brukt til kriminelle formål.