AI kan voorspellen of uw relatie zal duren op basis van hoe u spreekt met uw partner

Elk kind (of echtgeno (o) t (e) die schold om hun stemgeluid - zoals schreeuwen of sarcastisch zijn - weet dat de weg je spreekt met iemand kan net zo belangrijk zijn als de woorden die je gebruikt. Stemartiesten en acteurs maken hier veel gebruik van - ze zijn bekwaam in het geven van betekenis aan de manier waarop ze spreken, soms veel meer dan de woorden alleen zouden verdienen.

Maar hoeveel informatie is er in onze toon- en gesprekspatronen en hoe beïnvloedt dat onze relatie met anderen? Computationele systemen kunnen al worden vastgesteld wie mensen zijn van hun stem, dus kunnen ze ons ook iets vertellen over ons liefdesleven? Verbazingwekkend genoeg lijkt het erop.

Nieuw onderzoek, net gepubliceerd in het tijdschrift PLOS-ONE, heeft de vocale kenmerken van 134-paren die therapie ondergaan geanalyseerd. Onderzoekers van de University of Southern California gebruikten computers om standaardfuncties voor spraakanalyse te extraheren uit opnames van deelnemers aan therapiesessies gedurende twee jaar. De functies - inclusief toonhoogte, variatie in toonhoogte en intonatie - alles heeft betrekking op stemaspecten zoals toon en intensiteit.

Vervolgens werd een algoritme voor machine-learning getraind om een ​​verband te leren tussen die vocale kenmerken en de uiteindelijke uitkomst van de therapie. Dit was niet zo eenvoudig als het opsporen van geschreeuw of verheven stemmen - het omvatte het samenspel van gesprekken, wie sprak wanneer en voor hoe lang, evenals het geluid van de stemmen. Het bleek dat het negeren van wat er gezegd werd en het beschouwen van alleen deze spreekpatronen voldoende was om te voorspellen of paren wel of niet bij elkaar zouden blijven. Dit was puur data driven, dus het had geen betrekking op de uitkomsten van specifieke stemattributen.

Hoe een tone of voice de betekenis van een paar woorden kan veranderen.

{youtube}https://youtu.be/GVqJtvRjuns{/youtube}


innerlijk abonneren grafisch


Interessant is dat de volledige video-opnames van de therapiesessie vervolgens aan deskundigen werden gegeven om te classificeren. In tegenstelling tot de AI, maakten ze hun voorspellingen met behulp van psychologische beoordeling op basis van de vocale (en andere) attributen - inclusief de gesproken woorden en lichaamstaal. Verrassend genoeg was hun voorspelling van de uiteindelijke uitkomst (ze waren correct in 75.6% van de gevallen) inferieur aan voorspellingen van de AI, alleen gebaseerd op vocale kenmerken (79.3%). Het is duidelijk dat er elementen zijn gecodeerd in de manier waarop we spreken dat zelfs deskundigen niet weten. Maar de beste resultaten kwamen van het combineren van de geautomatiseerde beoordeling met de beoordeling van de experts (79.6% correct).

De betekenis hiervan gaat niet zozeer over het betrekken van AI bij huwelijkscounseling of het krijgen van paren om mooier met elkaar te praten (hoe verdienstelijk dat ook zou zijn). De betekenis is dat we onthullen hoeveel informatie over onze onderliggende gevoelens gecodeerd is in onze manier van spreken - een deel ervan is ons volledig onbekend.

Woorden geschreven op een pagina of een scherm hebben lexicale betekenissen afgeleid van hun woordenboekdefinities. Deze worden aangepast door de context van omringende woorden. Er kan een grote complexiteit in schrijven zijn. Maar wanneer woorden hardop worden voorgelezen, is het waar dat ze extra betekenissen aannemen die worden overgebracht door woordstress, volume, spreekfrequentie en tone of voice. In een standaardgesprek is er ook betekenis in hoe lang elke spreker spreekt, en hoe snel een of ander kan tussenkomen.

Overweeg de eenvoudige vraag "Wie ben jij?". Probeer dit te zeggen met nadruk op verschillende woorden; "Wie zijn u?", "Wie zijn jij en "Wie ben jij?". Luister hiernaar - de semantische betekenis kan veranderen met hoe we lezen, zelfs als de woorden hetzelfde blijven.

Computers die 'lekkende zintuigen' lezen?

Het is niet verrassend dat woorden verschillende betekenissen overbrengen, afhankelijk van hoe ze worden gesproken. Het is ook niet verrassend dat computers een deel van de betekenis achter de manier waarop we ervoor spreken kunnen interpreteren (misschien kunnen ze op een dag zelfs in staat zijn om ironie begrijpen).

Maar dit onderzoek gaat verder dan alleen kijken naar de betekenis van een zin. Het lijkt onderliggende attitudes en gedachten te onthullen die achter de zinnen liggen. Dit is een veel dieper niveau van begrip.

De therapiedeelnemers waren geen woorden aan het lezen als acteurs. Ze praatten gewoon op een natuurlijke manier - of zo natuurlijk als ze konden in het kantoor van een therapeut. En toch onthulde de analyse informatie over hun wederzijdse gevoelens dat ze per ongeluk in hun spraak "lekten". Dit kan een van de eerste stappen zijn in het gebruik van computers om te bepalen wat we werkelijk denken of voelen. Stel je voor dat je een moment praat met toekomstige smartphones - zullen we informatie "lekken" die ze kunnen ophalen? Hoe zullen ze reageren?

Kunnen ze ons adviseren over potentiële partners door naar ons te luisteren terwijl we samen praten? Konden ze een neiging tot antisociaal gedrag, geweld, depressie of andere omstandigheden detecteren? Het zou geen sprong van verbeeldingskracht zijn om je de apparaten zelf als toekomstige therapeuten - op verschillende manieren met ons in contact te treden om de effectiviteit van de interventies die ze leveren te volgen.

Maak je geen zorgen, omdat we jaren verwijderd zijn van een dergelijke toekomst, maar het verhoogt Priveproblemen, vooral omdat we dieper met computers omgaan op hetzelfde moment dat ze krachtiger worden in het analyseren van de wereld om hen heen.

The ConversationWanneer we pauzeren om ook de andere menselijke zintuigen te beschouwen, los van geluid (spraak); misschien lekken we ook informatie door zicht (zoals lichaamstaal, blozen), aanraking (temperatuur en beweging) of zelfs geur (feromonen). Als slimme apparaten zoveel kunnen leren door te luisteren naar hoe we spreken, kun je je afvragen hoeveel meer konden ze uit de andere zintuigen halen.

Over de auteur

Ian McLoughlin, hoogleraar computergebruik, hoofd van de school (Medway), University of Kent

Dit artikel is oorspronkelijk gepubliceerd op The Conversation. Lees de originele artikel.

Related Books:

at InnerSelf Market en Amazon