Hoe kunstmatige intelligentie ons beter kan maken in het uitdrukken van onszelf

Hoe kunstmatige intelligentie ons beter kan maken in het uitdrukken van onszelf
Shutterstock

Het vermogen om te argumenteren, onze redenering tegenover anderen uit te drukken, is een van de bepalende kenmerken van wat het is om mens te zijn.

Argument en debat vormen de hoekstenen van de geciviliseerde samenleving en het intellectuele leven. Processen van argumentatie leiden onze regeringen, structureren wetenschappelijke inspanningen en kaderen religieus geloof. Moeten we ons zorgen maken dat nieuwe ontwikkelingen in kunstmatige intelligentie stappen ondernemen om computers van deze vaardigheden te voorzien?

Terwijl technologie ons leven verandert, zijn we allemaal gewend aan nieuwe manieren van werken en nieuwe manieren van interactie. Millennials hebben niets anders geweten. Regeringen en rechters worden zich bewust van het potentieel dat technologie biedt om burgers te betrekken bij democratische en juridische processen. Sommige politici lopen individueel voorop in het begrijpen van de enorme rol die sociale media spelen in verkiezingsprocessen. Maar er zijn grote uitdagingen.

De ene is mooi uiteengezet door Upworthy CEO Eli Pariser in zijn TED-talk. Hierin legt hij uit hoe we beginnen te leven in "filterbellen": wat je ziet als je een bepaalde term op Google doorzoekt, is niet noodzakelijk hetzelfde als wat ik zie als ik op dezelfde term zoek. Media-organisaties van Fox News tot, meest recent, de BBC, personaliseren content, waarbij ID en login worden gebruikt om te selecteren welke verhalen het meest prominent aanwezig zijn. Het resultaat is dat we onszelf in echokamers van gelijkgestemde individuen kunnen opsluiten, terwijl onze argumenten meer eenzijdig, minder gebalanceerd en minder begrip voor andere gezichtspunten worden.


TED / YouTube.

Waarom kritisch denken cruciaal is

Een andere zorg is de manier waarop nieuws en informatie, hoewel steeds omvangrijker, steeds minder betrouwbaar wordt - beschuldigingen en tegen-beschuldigingen van "nep-nieuws"Zijn nu gemeengoed.

In het licht van dergelijke uitdagingen zijn vaardigheden van kritisch denken tegenwoordig belangrijker dan ooit tevoren: het vermogen om bewijsmateriaal snel en efficiënt te beoordelen en beoordelen, om buiten onze echokamer te stappen en over dingen te denken vanuit alternatieve gezichtspunten, om te integreren informatie, vaak in teams, brengt argumenten in evenwicht aan weerszijden en bereikt robuuste, verdedigbare conclusies. Dit zijn de argumentatievaardigheden die sinds meer dan 2,000 jaren het onderwerp zijn van academisch onderzoek in de filosofie, sinds Aristoteles.

De Centrum voor Argument Technologie (ARG-tech) aan de universiteit van Dundee gaat over het nemen en uitbreiden van theorieën uit de filosofie, taalkunde en psychologie die ons vertellen over hoe mensen argumenteren, hoe ze het oneens zijn, en hoe ze consensus bereiken - en die theorieën tot een startpunt maken voor het bouwen tools voor kunstmatige intelligentie die menselijke argumenten modelleren, herkennen, onderwijzen en zelfs eraan deelnemen.

Een van de uitdagingen voor modern onderzoek in het gebied is het verkrijgen van voldoende gegevens. AI-technieken zoals diepgaand leren vereisen enorme hoeveelheden gegevens, zorgvuldig onderzocht voorbeelden die kunnen helpen om robuuste algoritmen te bouwen.

Maar het verzamelen van dergelijke gegevens is echt moeilijk: het vergt hoog opgeleide analisten urenlang nauwgezet werk om de manier waarop argumenten in elkaar zijn gezet te scheiden van slechts een paar minuten van het discours.

Meer dan 10 jaar geleden richtte ARG-tech zich tot het programma BBC Radio 4, Moraal doolhof, als een voorbeeld van een "gouden standaard" -debat: rigoureus, strak argument over emotionele, actuele kwesties, met zorgvuldige en gemeten matiging. Enorm waardevol, die data voedden een programma van empirisch gefundeerd onderzoek naar argumenttechnologie.

De technologie

Het werken met dergelijke veeleisende gegevens heeft ertoe geleid dat alles van filosofische theorie tot grootschalige data-infrastructuur op de proef is gesteld. In oktober 2017 hebben we een pilot met de BBC Radio Religion & Ethics-afdeling uitgevoerd om twee soorten nieuwe argumenttechnologie in te zetten.

De eerste was een reeks 'analyses'. We begonnen met het bouwen van een enorme kaart van elk Moral Maze-debat, bestaande uit duizenden individuele uitingen en duizenden meer verbindingen tussen de inhoud van al die uitingen. Elke kaart werd vervolgens vertaald in een reeks infographics, met behulp van algoritmen om de meest centrale thema's te bepalen (met behulp van iets soortgelijks aan Google's PageRank algoritme). We identificeerden automatisch de meest verdeeldheidwekkende kwesties en waar de deelnemers stonden, evenals de momenten in het debat toen het conflict het kookpunt bereikte, hoe goed ondersteunde argumenten waren, enzovoort.

Het resultaat, op bbc.arg.tech in combinatie met de Moral Maze presenteert, voor de eerste keer, een op feiten gebaseerde manier om te begrijpen wat er echt in een debat gebeurt.

De tweede was een tool genaamd "debater", Waarmee je de rol van de voorzitter van de Moral Maze op je kunt nemen en je eigen versie kunt uitvoeren. Het neemt de argumenten die door elke deelnemer worden aangeboden en stelt u in staat om ze te navigeren, waarbij u uw eigen neus volgt voor een goed argument.

Met de debater-tool kunnen deelnemers een debat leiden en hun vaardigheden testen. (Hoe AI ons beter kan maken in het uiten van onszelf)
Met de debater-tool kunnen deelnemers een debat leiden en hun vaardigheden testen. BBC / Dundee University ARG-tech

Beide aspecten zijn erop gericht om inzicht te bieden en een betere, meer reflecterende argumentatie aan te moedigen. Enerzijds maakt het werk het mogelijk samenvattingen van hoe de vaardigheden van ruzie te verbeteren, gedreven door bewijs in de gegevens van wat echt werkt.

Anderzijds is er de mogelijkheid om die vaardigheden expliciet aan te leren: Test uw argument prototype ingezet op de BBC Taster-site maakt gebruik van voorbeelden uit de Moral Maze om een ​​klein aantal ruzie-vaardigheden te verkennen en laat je je hersens direct tegen de machine plaatsen.

Teamprestatie

Uiteindelijk is het doel niet om een ​​machine te bouwen die ons kan verslaan met een argument. Veel opwindender is het potentieel om AI-software te laten bijdragen aan menselijke discussie - het herkennen van soorten argumenten, het bekritiseren ervan, het aanbieden van alternatieve opvattingen en het onderzoeken van redenen zijn allemaal dingen die nu binnen het bereik van AI zijn.

En hier ligt de echte waarde - het hebben van teams van arguers, een mens, een of andere machine, die samenwerken om te gaan met veeleisende, complexe situaties, van intelligentieanalyse tot bedrijfsbeheer.

The ConversationDergelijke gezamenlijke "gemotiveerde" redeneerteams zullen de manier veranderen waarop we denken over de omgang met AI - en hopelijk transformeren we ook onze collectieve redeneervaardigheden.

Over de auteur

Chris Reed, hoogleraar Computerwetenschappen en filosofie, University of Dundee

Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees de originele artikel.

Related Books:

{amazonWS: searchindex = Books; keywords = artificial intelligence for humans; maxresults = 3}

enafarzh-CNzh-TWnltlfifrdehiiditjakomsnofaptruessvtrvi

volg InnerSelf op

facebook-icontwitter-iconrss-icoon

Ontvang de nieuwste via e-mail

{Emailcloak = off}