Kunstmatige intelligentie kan nu menselijke gedragingen nabootsen en al snel zal het gevaarlijk goed zijnIs dit gezicht slechts een verzameling van computerbits? PHOTOCREO Michal Bednarek / Shutterstock.com

Wanneer kunstmatige-intelligentiesystemen creatief beginnen te worden, kunnen ze geweldige dingen creëren - en enge. Neem bijvoorbeeld een AI-programma dat dat laat webgebruikers stellen muziek samen samen met een virtueel Johann Sebastian Bach door noten in te voeren in een programma dat Bach-achtige harmonieën genereert om ze te evenaren.

Gerund door Google, de app drew groot lof voor baanbrekend en leuk om mee te spelen. Het trok ook aan kritieken uitte zijn bezorgdheid over de gevaren van AI.

Mijn studie van hoe opkomende technologieën beïnvloeden het leven van mensen heeft mij geleerd dat de problemen verder gaan dan de weliswaar grote bezorgdheid over of algoritmen kan echt muziek maken of kunst in het algemeen. Sommige klachten leken klein, maar waren dat echt niet, zoals observaties die de AI van Google was basisregels overtreden van muziek compositie.

Sterker nog, pogingen om computers het gedrag van echte mensen na te bootsen, kunnen verwarrend en potentieel schadelijk zijn.


innerlijk abonneren grafisch


Nabootsingstechnologieën

Het programma van Google analyseerde de aantekeningen in 306 van de muziekwerken van Bach en vond relaties tussen de melodie en de noten die de harmonie opleverden. Omdat Bach strikte regels van compositie volgde, was het programma effectief die regels aan het leren, zodat het deze kon toepassen wanneer gebruikers hun eigen aantekeningen hadden verstrekt.

 Het Google Doodle-team legt het Bach-programma uit.

{youtube}XBfYPp6KF2g{/youtube}

De Bach-app zelf is nieuw, maar de onderliggende technologie is dat niet. Algoritmen getraind om patronen herkennen en maak probabilistische beslissingen bestaan ​​al heel lang. Sommige van deze algoritmen zijn zo complex dat mensen begrijp het niet altijd hoe ze beslissingen nemen of een bepaald resultaat opleveren.

AI-systemen zijn niet perfect - velen vertrouwen erop gegevens die niet representatief zijn van de hele bevolking, of dat zijn beïnvloed door menselijke vooroordelen. Het is niet helemaal duidelijk wie kan wettelijk aansprakelijk zijn wanneer een AI-systeem een ​​fout maakt of een probleem veroorzaakt.

Nu worden kunstmatige intelligentie-technologieën echter geavanceerd genoeg om de schrijf- of spreekstijl van individuen en zelfs gezichtsuitdrukkingen te kunnen benaderen. Dit is niet altijd slecht: een vrij eenvoudige AI gaf Stephen Hawking het Communicatievermogen efficiënter met anderen door de woorden te voorspellen die hij het meest zou gebruiken.

Meer complexe programma's die menselijke stemmen nabootsen mensen met een handicap helpen - maar kan ook worden gebruikt om luisteraars te misleiden. Bijvoorbeeld de makers van soort vogel, een stem-imiterend programma, heeft een uitgebracht gesimuleerd gesprek tussen Barack Obama, Donald Trump en Hillary Clinton. Het klinkt misschien echt, maar die uitwisseling is nooit gebeurd.

Van goed tot slecht

In februari 2019 creëerde OpenAI, een non-profitorganisatie, een programma dat tekst genereert vrijwel niet te onderscheiden van tekst geschreven door mensen. Het kan een toespraak "schrijven" in de stijl van John F. Kennedy, JRR Tolkien in "The Lord of the Rings"Of een student die schrijft een schoolopdracht over de Amerikaanse Burgeroorlog.

De tekst gegenereerd door OpenAI's software is zo geloofwaardig dat het bedrijf heeft gekozen niet om vrij te geven het programma zelf.

Vergelijkbare technologieën kunnen foto's en video's simuleren. In het vroege 2018 creëerde acteur en filmmaker Jordan Peele een video die het voormalige Amerikaanse president Barack Obama leek te laten zien dingen die Obama nooit heeft gezegd om het publiek te waarschuwen voor de gevaren van deze technologieën.

Wees voorzichtig met welke video's je gelooft.

{youtube}cQ54GDm1eL0{/youtube}

In het vroege 2019, a valse naaktfoto van de VS Rep. Alexandria Ocasio-Cortez circuleerde online. Gefabriceerde video's, vaak genoemd "deepfakes, "Wordt verwacht te zijn in toenemende mate gebruikt in verkiezingscampagnes.

Leden van het congres zijn dit probleem gaan onderzoeken voor de 2020 verkiezing. Het Amerikaanse ministerie van defensie geeft les aan het publiek hoe gemanipuleerde video's te herkennen en audio. Nieuwsorganisaties houden van Reuters beginnen journalisten te trainen om deepfakes te spotten.

Maar naar mijn mening blijft een nog grotere zorg bestaan: gebruikers kunnen misschien niet snel genoeg leren om nep-inhoud te onderscheiden, aangezien AI-technologie geavanceerder wordt. Als het publiek zich bijvoorbeeld bewust wordt van deepfakes, wordt AI al gebruikt voor nog geavanceerdere misleidingen. Er zijn nu programma's die kunnen genereren nep gezichten en nep digitale vingerafdrukken, het effectief creëren van de informatie die nodig is om een ​​hele persoon te fabriceren - tenminste in bedrijfs- of overheidsdossiers.

Machines blijven leren

Op dit moment zijn er genoeg potentiële fouten in deze technologieën om mensen de kans te geven digitale verzinsels te detecteren. Google's Bach-componist een aantal fouten gemaakt een expert kon detecteren. Toen ik het bijvoorbeeld probeerde, kon ik met het programma meedoen parallelle kwinten, een muziekinterval dat Bach zorgvuldig vermeden. De app ook brak muzikale regels van contrapunt door melodieën in de verkeerde sleutel te harmoniseren. Op dezelfde manier schreef OpenAI's tekstgenererende programma af en toe zinnen als "branden gebeuren onder water"Dat klopte niet in hun context.

Naarmate ontwikkelaars aan hun creaties werken, worden deze fouten zeldzamer. Effectief zullen AI-technologieën evolueren en leren. De verbeterde prestaties hebben het potentieel om veel sociale voordelen te brengen, waaronder betere gezondheidszorg, zoals AI-programma's helpen democratiseren van de praktijk van de geneeskunde.

Onderzoekers en bedrijven de vrijheid geven om te verkennen, om deze positieve resultaten van AI-systemen te bereiken, betekent het risico van de ontwikkeling van geavanceerdere manieren om bedrog en andere sociale problemen te creëren, open te stellen. Ernstig beperkend AI-onderzoek zou dat kunnen die vooruitgang beteugelen. Maar het geven van heilzame technologieën ruimte om te groeien kost niets - en het potentieel voor verkeerd gebruik, of het nu om onnauwkeurige 'Bach-achtige' muziek gaat of om miljoenen te misleiden, zal waarschijnlijk groeien op manieren waarop mensen nog niet kunnen anticiperen.The Conversation

Over de auteur

Ana Santos Rutschman, universitair docent recht, Universiteit van Saint Louis

Dit artikel is opnieuw gepubliceerd vanaf The Conversation onder een Creative Commons-licentie. Lees de originele artikel.

Verwante Boeken

at InnerSelf Market en Amazon