Maandag 26/09/2022

Technologie

Google is bang voor eigen supercomputer

null Beeld ANP
Beeld ANP

Google wil een noodknop op zijn kunstmatig intelligente software. Het concern vreest dat een hyperintelligente entiteit ooit een list bedenkt die voorkomt dat de software nog kan worden stopgezet. Googles dochter DeepMind, dat gespecialiseerd is in kunstmatige intelligentie, heeft daartoe een procedure ontwikkeld.

Bard van de Weijer

Het idee van slimme software die de mens overvleugelt, is een diepgewortelde angst bij veel mensen dat er ooit software komt die intelligenter is dan wijzelf, en dat deze software misschien op een dag zal besluiten dat de mens een sta-in-de-weg is. En dat de menselijke held die probeert de duivelse software uit te schakelen, tot zijn schrik ontdekt dat de noodknop onklaar gemaakt is - de Amerikaanse sciencefictionschrijver Asimov schreef er al over in de jaren vijftig.

Dat dat idee niet helemaal denkbeeldig is, bleek eerder al een beetje uit 'gedrag' dat DeepMinds slimme software vertoonde die zichzelf had gespecialiseerd in het winnen van de game Tetris. Toen tijdens een spelletje verlies onafwendbaar leek, nam de software een onverwachte beslissing en zette de game op pauze. Zo'n 'onverwachte' beslissing zou ook het onklaar maken van de noodknop kunnen zijn.

Om dat te voorkomen hebben een medewerker van DeepMind en een onderzoeker van de universiteit van Oxford onderzocht hoe dit scenario voorkomen kan worden. Dat kan door een simpele regel toe te voegen: slimme software mag menselijk ingrijpen nooit betrekken in zijn missie. Daardoor zou het nooit trucs bedenken om de mens buiten te sluiten, is het idee.

Momenteel is dat gevaar nog niet aanwezig, stellen de onderzoekers in de Franse krant Le Monde. "Maar het is beter te vroeg te beginnen met erover na te denken, dan te laat", zegt onderzoeker Stuart Armstrong van de universiteit van Oxford. "Met deze studie willen we er zeker van zijn dat dit nooit zal gebeuren."

"Gevaar voor de mensheid"

De recente zege van DeepMind op de menselijke wereldkampioen van het bordspel Go - een overwinning die pas over tien jaar werd verwacht - bracht zorgen over de gevaren van kunstmatige intelligentie weer aan de oppervlakte. Vorig jaar maakten ondernemers als Elon Musk van Tesla en SpaceX en wetenschappers als Stephen Hawking in een open brief duidelijk dat kunstmatige intelligentie een gevaar voor de mensheid kan betekenen en dat dit gevaar onderkend en bestreden moet worden.

Ook Guszti Eiben, hoogleraar kunstmatige intelligentie aan de VU in Amsterdam, die twee weken geleden de eerste babyrobot presenteerde die was 'geboren' uit twee robotouders, ziet een noodstop als een essentieel onderdeel van zelflerende systemen. Het robotevolutieproces waaraan hij werkt moet altijd gestopt kunnen worden. Bij robots lijkt dat relatief eenvoudig, denkt Eiben. Door de 3D-printer uit te schakelen, stopt de voorplanting en komt de kraamkamer van de robots droog te staan.

Meer over

Nu belangrijker dan ooit: steun kwaliteitsjournalistiek.

Neem een abonnement op De Morgen


Op alle artikelen, foto's en video's op demorgen.be rust auteursrecht. Deeplinken kan, maar dan zonder dat onze content in een nieuw frame op uw website verschijnt. Graag enkel de titel van onze website en de titel van het artikel vermelden in de link. Indien u teksten, foto's of video's op een andere manier wenst over te nemen, mail dan naar info@demorgen.be.
DPG Media nv – Mediaplein 1, 2018 Antwerpen – RPR Antwerpen nr. 0432.306.234