Siri, gehoorzaam je de drie wetten van robotica? Net als veel andere domme vragen, is het er een waar iemand bij Apple moeizaam op heeft geanticipeerd. Ik vergeet de eerste drie, tjilpt het antwoord, maar er is een vierde: 'Een slimme machine zal eerst overwegen wat de moeite waard is: om de gegeven taak uit te voeren of in plaats daarvan om er een uitweg uit te vinden'.
Haha! Stel je de bijeenkomst voor waar ze die schreven! Het probleem is dat het niet echt een grap is, toch? Dat is hun eigenlijke ontwikkelingsopdracht.
Siri kan veel eenvoudige dingen doen, zoals optellen, de weersvoorspelling checken en e-mails versturen. Eis iets harders en het pareert of ik weet niet zeker of ik het begrijp of zoekt gewoon op internet naar wat je zei. Nou, whoop-de-doo. Singulariteit ahoi.
Windows 8.1 aangepaste thema's
Zie gerelateerde Tien dingen die Apple heeft vermoord, en waarom het goed was Apple iPhone 6s review: een solide telefoon, zelfs jaren na de release
De opkomst van alles-in-één bots – waaronder Alexa van Amazon, de aankomende assistent van Google en zelfs een rivaal van de oorspronkelijke ontwikkelaar van Siri, Viv genaamd – werpt een ongemakkelijke schijnwerper op de lichaamloze conciërge van iOS. Als, zoals het gerucht gaat, het op het punt staat te worden aangekondigd als een tentpole-functie van OS X 10.12 Sensemilla*, kunnen we alleen maar hopen dat er een enorme sprong voorwaarts in smarts in de pijplijn zit. Omdat het misschien wat geintjes heeft, maar Siri heeft niet gekraakt om wijs te zijn.
Een richting
Maar het werkt. Meestal. Als je praat als een BBC-omroeper.
Het is geweldig dat de technologie bestaat om spraak naar tekst om te zetten. Niet zo geweldig dat de technologie blijkbaar niet in je telefoon past, dus het moet in North Carolina zitten en je datalimiet opgebruiken. Maar het werkt. Meestal. Als je praat als een BBC-omroeper.
Vervolgens kan die tekst worden gedolven voor trefwoorden om aan te sluiten op een van Siri's informatiebronnen, waaronder Apple Maps, Wolfram Alpha, Wikipedia en Microsoft Bing. (Gelukkig kun je Bing ruilen voor een echte zoekmachine in Instellingen | Safari | Zoekmachine. Niet door Siri te vragen. Dat zou te gemakkelijk zijn.)
Maar de manieren waarop Siri die bronnen gebruikt, zijn verre van slim. Wanneer ik Kaarten open en 'Whickham' typ in het zoekvak, wordt correct een lijst met plaatsen in Whickham gevonden, een klein stadje in de buurt van waar ik woon. Onder deze is de generieke vermelding voor Whickham zelf, gemarkeerd net naast het woord 'Whickham' op de kaart van Apple. Het zetwerk is trouwens prachtig.
Ik zou de typografie niet echt moeten bewonderen tijdens het rijden, dus in plaats daarvan zeg ik: Hé Siri, navigeer naar Whickham. Snel als een flits vindt Siri High Wycombe, Buckinghamshire. Dat is de andere kant van Engeland. Het vraagt me niet of dit de Wycombe is die ik bedoelde; het begint gewoon een route uit te stippelen.
(Dit is niet zo gek als het wordt. Als ik de weg vraag naar 'Washington', een andere stad in Tyne and Wear, biedt het me Olympia, WA, 4600 mijl verderop. Het is niet eens het meest waarschijnlijke verkeerde Washington.)
Nee, Siri, Whickham, W-H-I-C-K-H-A-M.
Nu is er een heel voor de hand liggende manier om deze verwarring op te lossen: je zou het woord spellen. Dus ik probeer: Nee, Siri, Whickham, W-H-I-C-K-H-A-M. Hij hoort dit heel goed, en kondigt meteen aan dat hij geen passende plaatsen kan vinden. Meteen, let wel - ga niet op zoek naar bronnen. Gewoon nee. Vergeet niet dat Whickham daar in Apple Maps staat, dezelfde engine die het gebruikt om me High Wycombe te laten zien.
De enige manier waarop ik uiteindelijk in Whickham kom, is door daar een straatnaam (Front Street) te onthouden en ernaar te vragen, en dan een andere manier te bedenken om ernaar te vragen nadat Siri me de verkeerde Front Street heeft laten zien en, nogmaals, geen alternatieven biedt. Om het nog erger te maken, heeft het de Front Street gekozen die het dichtst bij mijn huidige locatie ligt. Duidelijk.
map verwijderen uit bibliotheek Windows 10
Sorry, ik volg niet
Andere soorten zoekopdrachten worden met dezelfde dwaasheid afgehandeld. Siri, wat is het verschil tussen het BBP van Duitsland en dat van Italië? Geen probleem - het gaat en krijgt het juiste antwoord van Wolfram Alpha. Dan probeer ik een vervolgvraag. Siri was vroeger onzin bij vervolgvragen, maar verwierp zijn ideeën nadat Google Voice Search naar buiten kwam en ze deed. Je kunt nu vragen Wat voor weer wordt het maandag? en voeg toe Hoe zit het met dinsdag? en het is goed. Of bewolkt, wat het geval kan zijn.
Dus ik vervolg met: Hoe zit het met Frankrijk? Het ziet Frankrijk verkeerd als vrienden. Van alle woorden die ik misschien heb gezegd, voegt het feit dat ik zojuist twee andere Europese staten heb genoemd blijkbaar geen gewicht toe aan de mogelijkheid dat ik Frankrijk bedoelde. Toonaangevende interactieve AI, mensen.
Ik heb een 88-jarig familielid dat erg doof is. Als je iets herhaalt dat ze verkeerd heeft gehoord, raadt ze een ander woord. Ze kan het nog steeds bij het verkeerde eind hebben, maar ze raadt hetzelfde woord niet nog een keer, want waarom zou je het hebben herhaald? Ik herhaal Hoe zit het met Frankrijk? drie keer. Drie keer keert Siri terug. Hoe zit het met vrienden? Interessante vraag, Adam, antwoordt ze opgewekt.
Uiteindelijk kom ik erachter dat ik Frankrijk moet zeggen met een deftig accent (ik ben noordelijk, dus Frankrijk rijmt op een broek). Siri komt terug met het telefoonnummer van Elizabeth France CBE, dat in mijn contacten staat van toen ze de registrar voor gegevensbescherming was. Omdat ik duidelijk een willekeurig persoon bedoelde wiens kantoor ik 14 jaar geleden voor het laatst belde, niet het land. (Het land dat grenst aan de twee andere landen die ik zojuist noemde.) En ik verwijs vaak naar mensen alleen bij hun achternaam. Dat is helemaal een ding. Siri, hoe zit het met Carruthers?
Afval in
Het soort logica dat hier ontbreekt, zou niet moeilijk moeten zijn. Het is er al, in sommige opzichten. Je kunt zeggen - zomaar uit het niets, à propos de rien - Hey Siri, Ivy is mijn zus. Nadat je hebt gecontroleerd welke Ivy je bedoelt, als je er meer dan één in je contacten hebt, zal Siri vragen: OK, wil je dat ik onthoud dat Ivy je zus is? Zeg Ja, en in de toekomst kunt u zeggen Bel mijn zus om dit contact te bellen.
Familierelaties zijn standaard afhankelijk van elkaar, dus natuurlijk kun je aangeven dat Oliver de zoon van Ivy is en vervolgens Siri zeggen, sms mijn neef om een bericht naar deze contactpersoon te sturen. Het is geen rocket science, maar het is een leuke ... wacht even. Nee. Siri zoekt op internet naar Oliver is Ivy's zoon. Zo ver kan het niet eens komen.
Het meest irritante aan Siri is dat het voor een systeem dat is ontworpen om te luisteren zo'n slechte luisteraar is.
Het meest irritante aan Siri is dat het voor een systeem dat is ontworpen om te luisteren zo'n slechte luisteraar is. En dat is meer dan alleen een bug. De ongerechtvaardigde onverschilligheid, de platte weigering om over zijn eigen onwetendheid na te denken, zijn onontkoombaar symptomatisch voor overmoed in Silicon Valley.
Het begrijpen van menselijke spraak en de bedoelingen erachter is zelfs voor mensen een enorme uitdaging. Als sprekers struikelen we over onze woorden; als luisteraars interpreteren we ze verkeerd. Het grootste deel van elk gesprek vraagt om opheldering of om onduidelijkheden op te lossen.
Toch zal Siri daar niets van hebben. Ondanks al zijn gemoedelijke fineer, zoekt het gewoon in onze invoer naar dezelfde geblafde opdrachten die we in een menu konden vinden. Of het weet wat we willen, of het begrijpt het niet, een passief-agressieve manier om ongeldige invoer te zeggen. Er zit niets tussen.
Dat is zo Bay Area, zeggen mensen nu, wanneer een bevoorrechte tech-magnaat in een complexe menselijke kwestie blundert met een te vereenvoudigde oplossing voor het verkeerde probleem. We kunnen net zo goed zeggen: dat is zo Siri.
*Bewijs dan dat we ongelijk hebben
LEES VOLGENDE: De tien dingen die Apple heeft gedood - en waarom het goed was