PayPal hat mit seinem neusten Update für iOS die Bezahlung durch die Sprachassistentin Siri eingeführt. Ja, auf den ersten Blick scheint es so überhaupt kein Windows Thema zu sein – zum Einen betrifft es ein anderes System, zum Anderen haben wir momentan nicht einmal eine PayPal App im Store (Laut Storebeschreibung ist eine in Arbeit, who knows). Das neue Feature hat mich aber an die Ansprache Nadellas (Microsoft CEO) auf der diesjährigen Build Conference erinnert, in der er Sprache als UI der Zukunft bezeichnet.
Computer, wo befindet sich Lt.Commander Data?
Sprachsteuerung ist natürlich kein neues Phänomen. Schon lange können wir unseren jeweiligen Sprachassistenten sagen, dass sie einen Termin festhalten, den Wecker stellen oder eine bestimmte Playlist abspielen sollen. Das Amazon Echo bringt diese Art der Interaktion auf ein anderes Level. Echo ähnelt dabei dem Computer aus Star Trek, den man alles fragen kann und auf erstaunlich Vieles bereits eine Antwort erhält. Es ist ein Vorgeschmack auf die von Nadella beschriebene „Sprache als UI“.
Bislang beschränken sich die Funktionen der Assistenten auf (nützliche) Spielereien. In dem Moment wo Firmen wie PayPal Geldtransfer über Sprache anbieten, wird die Geschichte aber interessant. Es ist nicht viel Phantasie vonnöten, wenn in Zukunft auch normale Banken ein solches Feature anböten. Oder die Lieblingspizza unkompliziert per Sprachbefehl bestellt werden kann. Adobe arbeitet ja bereits an Sprachsteuerung für seine Produktivprogramme.
Microsoft besitzt die beste Spracherkennung in der Industrie. Auch komplizierte Aktionen könnten, mit entsprechender Unterstützung von Bots, per Sprache durchgeführt werden.
Möchten wir überhaupt mit unseren Geräten sprechen?
In Star Trek hat scheinbar niemand ein Problem damit mit dem Computer zu sprechen. Die meisten Szenen spielen sich allerdings auch in einem professionellen Setting und nicht in einer überfüllten U-Bahn mit tausenden fremden Menschen statt.
Wenn ich zuhause bin habe ich gar kein Problem mit meiner Xbox zu sprechen. Sobald ich in der Öffentlichkeit mit Cortana spreche, komme ich mir aber noch etwas albern vor.
Vielleicht wird dieses befremdliche Gefühl bei unseren Kindern und Enkeln nicht mehr da sein, vielleicht wird „Sprache als UI“ sich nur in bestimmten Szenarien als Interaktionsmedium durchsetzen.
Wie seht ihr diese Entwicklung? Wird Sprache in einigen Jahren unsere primäre Art der Interaktion mit unseren Geräten darstellen?
Bildquelle
Mich erinnert das Ganze gerade an die Folge als „Pille“ in die Vergangenheit reist und in die Maus spricht ? und ganz erstaunt ist das der Computer nicht reagiert ?
Haha jaaaaa??
Das war nicht Pille, sondern Scotty.
„Microsoft besitzt die beste Spracherkennung in der Industrie“???
Bei mir versteht Cortana nicht einmal „Annehmen“ bei
einem eingehenden Anruf …
Muss ja nicht unbedingt an Cortana liegen. ??
Ja? ich weis noch beim event als das surface studio vorgestellt wurde und panos panay kurz cortana gezeigt hat wie bei allen die den stream geschaut haben cortana auch zugehört hat
sprache wird ganz sicher die neue haupt eingabe art der zukunft werden
und das schon deshalb weil das eingeben von befehlen in geräte welcher art auch immer so erheblich vereinfacht wird
ausserdem geht es deutlich schneller so eine eingabe zu tätigen
allerdings werden maus und tastatur noch eine lange zeit vorhanden sein
sie werden in dem verhältnis verwendet werden wie heute die sprach steuerung die dann die hauptaufgabe übernehmen wird
so ist das eben mit der zukunft !
!! widerstand ist zwecklos wir werden assimiliert !!
Bestimmte Funktionen/Apps lassen sich per Sprachassistent komplett bedienen. Die Bedienung komplexer Anwendungen aber würde noch lange Zeit den Sprachassistenten überfordern. Selbst User, die auf den Sprachassistenten angewiesen sind, wie z.B. stark bis völlig sehbehinderte, werden auf lange Sicht nicht ohne Tastatur, Maus und/oder Touch auskommen.
Bei der Bank N26 kann man Geld per Siri versenden…
Ah, danke, das wusste ich nicht. Bestätigt aber nur die Vermutung, dass es zukünftig wohl mehr wird.
Hätte es vermutlich auch nie erfahren wenn ich da kein Konto hätte 😀
Nur per Siri, oder braucht man auch ein Smartphone und das Internet? ?
Ich finde, dass es nicht darum geht, ob man sich in der Öffentlichkeit komisch vorkommt, wenn man mit seinem Smartphone redet. Für mich ist es eine Frage der Privatsphäre. Das meiste zwischen meinem Smartphone und mir geht niemanden etwas an.
Ja sehe ich genauso. Mir fällt nichts eine was andere wissen dürfen was ich am handy mache. Erst recht nicht wenn es um geld geht!
Diese Privatsphäre lässt sich doch nicht einmal am Bankschalter realisieren. Im Gegenteil, dort halte ich es für gefährlicher, wenn Oma ihre Rente vor den sonst noch anwesenden Personen in Bar abhebt.
wenn ich bahn fahre und geld per sprache überweise bekommen es mehr leute mit als wenn ich es mit den fingern am handy mache.
„Sprache als UI“ ist ein sehr interessanter Gedanke. Faszinierend, wie Mr. Spock sagen würde.
Aber gerade in Geldangelegenheiten und im Besonderen mit Paypal muss man auf die Sicherheit achten. Meine Erfahrungen mit Paypal sind sehr negativ und das man große Probleme mit der Sicherheit hat wurde von einem Mitarbeiter auf massive Nachfrage verklausuliert bestätigt. Das betrifft aber alle großen Plattformen.
Nicht alles was sich APP nennt ist von vornherein modern und sicher.
Bedenken sie das bitte bei der Auswahl der Zahlungsverfahren.
Macht den Porno Konsum im Büro jedenfalls interessant.
Ich weis nicht ob das wirklich die Zukunft wird, denn einfacher macht das nicht alles. Oft sind wenige klicks und berührungen nötig um etwas zu machen. Ich habe auf meinem surface z.B. festgelegt das wenn ich alt gr + n drücke dich OneNote öffnet. Genauso mit word und w, PowerPoint und p usw… geht viel schneller als wenn ich sage „hey cortana öffne OneNote“
Mit welchem Programm hast du das gemacht? 😉
ist in windows inigriert 😉 wenn du ne Verknüpfung hast kannst du das in den eigenschaften einstellen. Ist in den Eigenschaften der Verknüpfung unter der Registerkarte „Verknüpfung“
Ich frage mich schon lange, warum die Wearables ein Display haben müssen. Das könnte doch alles über Sprache laufen. Das Armband könnte ein Schmuckstück sein. I.d.R. spricht doch überwiegend das Armband und ich als User höre zu, bei der Fitness z.B. oder beim Ansagen der Uhrzeit. Will ich die genaue Uhrzeit oder bestimmte Daten konkret wissen, kann ich Cortana fragen. Beim Joggen dürfte das kein Problem darstellen.
Nunja, display im meeting ist natürlich vorteilhafter, als wenn das wearable plötzlich los plappert. Vlt noch maximal über dieses neue vibrations muster wo man sich den finger ans Ohr hält und der schall über den knochen übertragen wird, sodass nur die person es hört die es hören soll wenn das wearable losplappert.
Ich finde das teilweise schon auch sehr witzig. Hatte mir mal so ein „Security“-Headset gekauft, weil das beim Fahren mit Helm einfach besser war. Wenn man das jetzt trägt und dabei Cortana nach der Zeit fragt, ist das schon faszinierend, wie die Leute da reagieren.
Was ist anders daran, dass Leute laut über das Smartphone miteinander telefonieren, dass jeder in der näheren Umgebung jedes Wort mithören kann? Das passiert, seit es das Handy gibt. Das nehmen wir schon nicht mehr als besonders wahr.
Und überhaupt, warum muss ein Wearable ein Armband sein? Wenn es schon kein Display hat und über Sprachassistent mit dem User kommuniziert, können es ebenso Ohrringe sein, Anhänger von Halsbänder, Broschen, Knöpfe, Gürtelschnallen, ganze Kleidungsstücke, eben Wearables.
Es ist angeblich eine Paypal App in Entwicklung? Interessant, das wusste ich nicht.. Man darf also noch hoffen…
Unglücklicherweise lässt sich die Stimme nahezu unbegrenzt manipulieren (http://www.bbc.com/news/technology-37899902). Adobe Voco ist da ein interessantes Beispiel. Ein „digitaler Fingerabdruck“ nützt da auch nichts, da dieser durch eine einfache analoge Aufzeichnung zu entfernen ist. 🙁
Wie gut sind stimmen fälschbar, verglichen mit fingerabdrücken oder retina? Und wie sieht die Arbeit dann aus? Großraumbüro und jeder redet, boa…..
Ich denke grade nur an J.A.R.V.I.S aus Ironman. Sowas wäre genial und ich denke mal wieder das solche Assistenten zur Unterstützung dienen und nicht zum Verdrängen von Eingabegeräten. Die Tastatur und co werden wahrscheinlich durch Holo’s ersetzt aber nicht komplett verschwinden.
Also ich komm nur ehrlich gesagt doof vor mit dem Handy zu quatschen, jedenfalls vor fremden Leuten.
Dann spart man sich zumindest die Akkukapazität, wenn kein Display mehr vorhanden ?