News

PayPal Überweisung per Stimme: Ist „Sprache als UI“ die Zukunft?

sprache

PayPal hat mit seinem neusten Update für iOS die Bezahlung durch die Sprachassistentin Siri eingeführt. Ja, auf den ersten Blick scheint es so überhaupt kein Windows Thema zu sein – zum Einen betrifft es ein anderes System, zum Anderen haben wir momentan nicht einmal eine PayPal App im Store (Laut Storebeschreibung ist eine in Arbeit, who knows). Das neue Feature hat mich aber an die Ansprache Nadellas (Microsoft CEO) auf der diesjährigen Build Conference erinnert, in der er Sprache als UI der Zukunft bezeichnet.

Computer, wo befindet sich Lt.Commander Data?

Sprachsteuerung ist natürlich kein neues Phänomen. Schon lange können wir unseren jeweiligen Sprachassistenten sagen, dass sie einen Termin festhalten, den Wecker stellen oder eine bestimmte Playlist abspielen sollen. Das Amazon Echo bringt diese Art der Interaktion auf ein anderes Level. Echo ähnelt dabei dem Computer aus Star Trek, den man alles fragen kann und auf erstaunlich Vieles bereits eine Antwort erhält. Es ist ein Vorgeschmack auf die von Nadella beschriebene „Sprache als UI“.

Bislang beschränken sich die Funktionen der Assistenten auf (nützliche) Spielereien. In dem Moment wo Firmen wie PayPal Geldtransfer über Sprache anbieten, wird die Geschichte aber interessant. Es ist nicht viel Phantasie vonnöten, wenn in Zukunft auch normale Banken ein solches Feature anböten. Oder die Lieblingspizza unkompliziert per Sprachbefehl bestellt werden kann. Adobe arbeitet ja bereits an Sprachsteuerung für seine Produktivprogramme.

Microsoft besitzt die beste Spracherkennung in der Industrie. Auch komplizierte Aktionen könnten, mit entsprechender Unterstützung von Bots, per Sprache durchgeführt werden.

Möchten wir überhaupt mit unseren Geräten sprechen?

In Star Trek hat scheinbar niemand ein Problem damit mit dem Computer zu sprechen. Die meisten Szenen spielen sich allerdings auch in einem professionellen Setting und nicht in einer überfüllten U-Bahn mit tausenden fremden Menschen statt.

Wenn ich zuhause bin habe ich gar kein Problem mit meiner Xbox zu sprechen. Sobald ich in der Öffentlichkeit mit Cortana spreche, komme ich mir aber noch etwas albern vor.

Vielleicht wird dieses befremdliche Gefühl bei unseren Kindern und Enkeln nicht mehr da sein, vielleicht wird „Sprache als UI“ sich nur in bestimmten Szenarien als Interaktionsmedium durchsetzen.

 

Wie seht ihr diese Entwicklung? Wird Sprache in einigen Jahren unsere primäre Art der Interaktion mit unseren Geräten darstellen?


Quelle

Bildquelle

Vorheriger Artikel

Chuwi LapBook: 15.6 Zoll Notebook mit Coupon für €170

Nächster Artikel

[Deal] Samsung Micro-SDs: 32, 64 und 128GB ab €8

Der Autor

Leonard Klint

Leonard Klint

"Change has to flow from the bottom to the top." - Ed Snowden

32
Hinterlasse einen Kommentar

avatar
17 Comment threads
15 Thread replies
0 Followers
 
Most reacted comment
Hottest comment thread
22 Comment authors
FlensburgerPilzXlixHannes LüerEnnerBob123 Recent comment authors
  Diskussion abonnieren  
neuste älteste beste Bewertung
Benachrichtige mich zu:
susisorglos1964
Mitglied

Mich erinnert das Ganze gerade an die Folge als „Pille“ in die Vergangenheit reist und in die Maus spricht ? und ganz erstaunt ist das der Computer nicht reagiert ?

W10MNutzer
Mitglied

Das war nicht Pille, sondern Scotty.

Jptech42
WU Team

Haha jaaaaa??

KurtGoedel
Mitglied

„Microsoft besitzt die beste Spracherkennung in der Industrie“???
Bei mir versteht Cortana nicht einmal „Annehmen“ bei
einem eingehenden Anruf …

sentinel
Mitglied

Muss ja nicht unbedingt an Cortana liegen. ??

lachsack
Gast

Ja? ich weis noch beim event als das surface studio vorgestellt wurde und panos panay kurz cortana gezeigt hat wie bei allen die den stream geschaut haben cortana auch zugehört hat

tyloona
Mitglied

sprache wird ganz sicher die neue haupt eingabe art der zukunft werden
und das schon deshalb weil das eingeben von befehlen in geräte welcher art auch immer so erheblich vereinfacht wird
ausserdem geht es deutlich schneller so eine eingabe zu tätigen
allerdings werden maus und tastatur noch eine lange zeit vorhanden sein
sie werden in dem verhältnis verwendet werden wie heute die sprach steuerung die dann die hauptaufgabe übernehmen wird
so ist das eben mit der zukunft !
!! widerstand ist zwecklos wir werden assimiliert !!

turbolizer
Mitglied

Bestimmte Funktionen/Apps lassen sich per Sprachassistent komplett bedienen. Die Bedienung komplexer Anwendungen aber würde noch lange Zeit den Sprachassistenten überfordern. Selbst User, die auf den Sprachassistenten angewiesen sind, wie z.B. stark bis völlig sehbehinderte, werden auf lange Sicht nicht ohne Tastatur, Maus und/oder Touch auskommen.

ryu85
Mitglied

Bei der Bank N26 kann man Geld per Siri versenden…

turbolizer
Mitglied

Nur per Siri, oder braucht man auch ein Smartphone und das Internet? ?

imagi
Gast
imagi

Ich finde, dass es nicht darum geht, ob man sich in der Öffentlichkeit komisch vorkommt, wenn man mit seinem Smartphone redet. Für mich ist es eine Frage der Privatsphäre. Das meiste zwischen meinem Smartphone und mir geht niemanden etwas an.

lachsack
Gast

Ja sehe ich genauso. Mir fällt nichts eine was andere wissen dürfen was ich am handy mache. Erst recht nicht wenn es um geld geht!

turbolizer
Mitglied

Diese Privatsphäre lässt sich doch nicht einmal am Bankschalter realisieren. Im Gegenteil, dort halte ich es für gefährlicher, wenn Oma ihre Rente vor den sonst noch anwesenden Personen in Bar abhebt.

Hannes Lüer
Gast

wenn ich bahn fahre und geld per sprache überweise bekommen es mehr leute mit als wenn ich es mit den fingern am handy mache.

Ramseshh
Mitglied

„Sprache als UI“ ist ein sehr interessanter Gedanke. Faszinierend, wie Mr. Spock sagen würde.
Aber gerade in Geldangelegenheiten und im Besonderen mit Paypal muss man auf die Sicherheit achten. Meine Erfahrungen mit Paypal sind sehr negativ und das man große Probleme mit der Sicherheit hat wurde von einem Mitarbeiter auf massive Nachfrage verklausuliert bestätigt. Das betrifft aber alle großen Plattformen.
Nicht alles was sich APP nennt ist von vornherein modern und sicher.
Bedenken sie das bitte bei der Auswahl der Zahlungsverfahren.

backpflaune
Mitglied

Macht den Porno Konsum im Büro jedenfalls interessant.

lachsack
Gast

Ich weis nicht ob das wirklich die Zukunft wird, denn einfacher macht das nicht alles. Oft sind wenige klicks und berührungen nötig um etwas zu machen. Ich habe auf meinem surface z.B. festgelegt das wenn ich alt gr + n drücke dich OneNote öffnet. Genauso mit word und w, PowerPoint und p usw… geht viel schneller als wenn ich sage „hey cortana öffne OneNote“

AndreasIndelicato
Mitglied

Mit welchem Programm hast du das gemacht? 😉

Hannes Lüer
Gast

ist in windows inigriert 😉 wenn du ne Verknüpfung hast kannst du das in den eigenschaften einstellen. Ist in den Eigenschaften der Verknüpfung unter der Registerkarte „Verknüpfung“

turbolizer
Mitglied

Ich frage mich schon lange, warum die Wearables ein Display haben müssen. Das könnte doch alles über Sprache laufen. Das Armband könnte ein Schmuckstück sein. I.d.R. spricht doch überwiegend das Armband und ich als User höre zu, bei der Fitness z.B. oder beim Ansagen der Uhrzeit. Will ich die genaue Uhrzeit oder bestimmte Daten konkret wissen, kann ich Cortana fragen. Beim Joggen dürfte das kein Problem darstellen.

Enner
Mitglied

Nunja, display im meeting ist natürlich vorteilhafter, als wenn das wearable plötzlich los plappert. Vlt noch maximal über dieses neue vibrations muster wo man sich den finger ans Ohr hält und der schall über den knochen übertragen wird, sodass nur die person es hört die es hören soll wenn das wearable losplappert.

Tschensen
Mitglied

Ich finde das teilweise schon auch sehr witzig. Hatte mir mal so ein „Security“-Headset gekauft, weil das beim Fahren mit Helm einfach besser war. Wenn man das jetzt trägt und dabei Cortana nach der Zeit fragt, ist das schon faszinierend, wie die Leute da reagieren.

turbolizer
Mitglied

Was ist anders daran, dass Leute laut über das Smartphone miteinander telefonieren, dass jeder in der näheren Umgebung jedes Wort mithören kann? Das passiert, seit es das Handy gibt. Das nehmen wir schon nicht mehr als besonders wahr.

turbolizer
Mitglied

Und überhaupt, warum muss ein Wearable ein Armband sein? Wenn es schon kein Display hat und über Sprachassistent mit dem User kommuniziert, können es ebenso Ohrringe sein, Anhänger von Halsbänder, Broschen, Knöpfe, Gürtelschnallen, ganze Kleidungsstücke, eben Wearables.

CloudConnected
Mitglied

Es ist angeblich eine Paypal App in Entwicklung? Interessant, das wusste ich nicht.. Man darf also noch hoffen…

Frank Lasaya
Mitglied

Unglücklicherweise lässt sich die Stimme nahezu unbegrenzt manipulieren (http://www.bbc.com/news/technology-37899902). Adobe Voco ist da ein interessantes Beispiel. Ein „digitaler Fingerabdruck“ nützt da auch nichts, da dieser durch eine einfache analoge Aufzeichnung zu entfernen ist. 🙁

dichterDichter
Mitglied

Wie gut sind stimmen fälschbar, verglichen mit fingerabdrücken oder retina? Und wie sieht die Arbeit dann aus? Großraumbüro und jeder redet, boa…..

Bob123
Mitglied

Ich denke grade nur an J.A.R.V.I.S aus Ironman. Sowas wäre genial und ich denke mal wieder das solche Assistenten zur Unterstützung dienen und nicht zum Verdrängen von Eingabegeräten. Die Tastatur und co werden wahrscheinlich durch Holo’s ersetzt aber nicht komplett verschwinden.

Xlix
Mitglied

Also ich komm nur ehrlich gesagt doof vor mit dem Handy zu quatschen, jedenfalls vor fremden Leuten.

FlensburgerPilz
Mitglied

Dann spart man sich zumindest die Akkukapazität, wenn kein Display mehr vorhanden ?