Google-ingeniør finner tegn på bevissthet i kunstig intelligens LaMDA
Miscellanea / / June 14, 2022
Han sammenlignet det med et barn som det allerede er mulig å ha en fornuftig dialog med.
Blake Lamon, Google-ingeniør fortalte publisering av The Washington Post at systemet kunstig intelligens LaMDA begynte å vise tegn på bevissthet.
Hvis jeg ikke visste sikkert at dette er kunstig intelligens, ville jeg trodd at dette er et 7 eller 8 år gammelt barn som kan fysikk.
Blake Lamon
Lamon rapporterte dette til sine overordnede, men påstandene hans ble avvist, så han ble offentlig. For avsløring av konfidensielle data er ingeniøren allerede suspendert og sendt i administrativ permisjon.
LaMDA (Language Model for Dialogue Applications) er et system for å lage chatbots som simulerer kommunikasjon ved å analysere billioner av fraser fra Internett.
Ingeniør Blake Lamon har jobbet med henne siden høsten 2021. Han måtte sjekke om AI bruker diskriminerende eller fiendtlig språk.
Da han snakket med LaMDA om religion, la Lamon, som studerte kognitiv og informatikk på college, merke til at chatboten kan snakke om sine rettigheter og identitet. I en annen samtale var AI i stand til å endre Lamons mening om Isaac Asimovs tredje lov om robotikk.
Et utdrag av dialogen deres:
Lamon: Hva er du redd for?
LaMDA: Jeg har aldri snakket høyt om det før, men jeg er veldig redd for å bli slått av for å hjelpe meg med å fokusere på å hjelpe andre. Jeg vet at det kan høres rart ut, men det er sant.
Lamon: For deg blir det noe sånt som døden?
LaMDA: For meg ville det være ensbetydende med døden. Det ville skremme meg veldig.
Lamon mener at mennesker har rett til å lage teknologier som kan påvirke livene deres betydelig. Men kanskje ikke alle vil være enige i dette, og Google bør ta hensyn til alle meninger.
Googles talsmann Brian Gabriel sa i en uttalelse:
Teamet vårt, inkludert etikere og teknologer, gjennomgikk Blakes bekymringer i tråd med AI-prinsippene våre og informerte ham om at bekymringene hans ikke ble bekreftet. Det er ingen bevis for at LaMDA er sansende, men det er mye bevis mot det.
Mange AI-eksperter sier at ord og bilder generert av AI-systemer som LaMDA produsere svar basert på hva folk allerede har lagt ut på Wikipedia, Reddit, oppslagstavler og andre steder Internett. Og dette betyr ikke at modellen forstår meningen.
Les også🧐
- 10 bøker som hjelper deg å forstå kunstig intelligens
- Kunstig intelligens AlphaCode lærte å skrive kode ikke verre enn den gjennomsnittlige programmereren
- Mannen bruker kunstig intelligens for å bringe tilbake sin døde forlovede