Verständnis natürlicher Sprache ist die Zukunft von A.I. Spracherkennung

$config[ads_kvadrat] not found

МИХАИЛ БУБЛИК - 40000 ВЕРСТ ( Live Video Album 2014 ) / MICHAEL BUBLIK- 40000 verst

МИХАИЛ БУБЛИК - 40000 ВЕРСТ ( Live Video Album 2014 ) / MICHAEL BUBLIK- 40000 verst
Anonim

Mit dem Aufkommen von Amazon 's Alexa und Siris konsequenter Fähigkeit, mehr Aufgaben zu übernehmen (und immer frecher zu werden), wundern sich viele: Was ist das nächste für natürliches Sprachverständnis und Sprachschnittstellen?

Bei diesem Rennen gibt es mehrere Unternehmen. Es gibt Wit.ai, das Unternehmen, das Facebook erworben hat - Sie können mit der Demo herumspielen. (Versuchen Sie diesen Befehl: "Ich möchte Katzen beobachten.") Apple hat sein HomeKit und macht damit das, was Apple am besten kann - den Arsch zu treten. Amazon ist auch mit seinen mit Alexa ausgestatteten Echo und Echo Dot vorne.

MindMeld ist ein Unternehmen, das dem natürlichen Sprachverständnis auf der Spur ist. MindMeld stellt anderen Unternehmen, die ihre Produkte, Dienstleistungen oder Geräte mit intelligenten Sprachschnittstellen ausstatten möchten, seine natürlichen Sprachverständnisfähigkeiten zur Verfügung. Das in San Francisco ansässige Unternehmen bietet seinen Partnern Infrastruktur- und Anpassungsoptionen an, so dass ihre Geräte über eigene, fein abgestimmte persönliche Assistenten verfügen können. MindMeld hat kürzlich eine solche Partnerschaft mit Spotify angekündigt, arbeitet aber auch mit Automobilunternehmen, Verteidigungsbehörden, E-Commerce-Unternehmen und mehr zusammen. (Und natürlich ist es nicht möglich, viele Details solcher Partnerschaften mitzuteilen.)

Inverse sprach mit Sam Vasisht von MindMeld über den Stand der Spracherkennungsbranche - er wies jedoch schnell darauf hin, dass „Spracherkennung“ als Unternehmen nun ein „banales Thema“ ist. Heutzutage dreht sich alles um „natürliches Sprachverständnis“. „Die Spracherkennung hat ihren Höhepunkt fast erreicht: Nach mehr als 50 Jahren Entwicklungszeit können die KIs die Sprache jetzt effektiv erkennen. Diese Systeme sind bei der Arbeit fast besser als Menschen und werden die Sterblichen sicherlich bald übertreffen.

Der vorhersehbare nächste Schritt ist dann - ähnlich wie bei der Entwicklung eines Kindes -, diesen Systemen beizubringen verstehen die Sprache, die sie jetzt erkennen können. „Dieser Mensch spricht Worte; Dies sind die Worte "ist weit entfernt von" Ich verstehe, was dieser Mensch sagt; erlaube mir zu helfen."

Und dieser weitere Schritt und diese Entwicklung erfordert eine Interpretation von Bedeutung: Nachahmen der Art, wie der menschliche Geist verbale Informationen verarbeitet. Diese Gleichung besteht aus zwei Teilen. Die erste ist Absicht: Was ist das Ziel oder der Wunsch des Menschen, diesen Satz zu sprechen? Ein Computer, der eine Absicht aus einem gesprochenen Satz extrahieren kann, kann „verstehen“, dass der Mensch etwas bewirken möchte x oder mit interagieren y. Mit diesem Prozess ist der zweite Teil der Gleichung verbunden: Entität. Die A.I. muss wissen, wie die angesprochene Entität zu bestimmen ist, das Ziel der Absicht des Menschen.

Um dies zu tun, beschäftigt MindMeld (wie ich vermutete oder hoffte) keine Philosophen. Es beschäftigt Experten für natürliche Sprache, aber viele der A.I. Der „Lernprozess“ ist an sich relativ weit entfernt. Wenn Sie dem System das Verstehen von Kaffeebestellungen beibringen, müssen Sie dem System alle verschiedenen Möglichkeiten zeigen, auf die die Menschen vermutlich Kaffee bestellen.

"Ich mag einen Mokka."

"Könnte ich bitte eine Tasse Joe haben?"

"Nur ein großer Kaffee für mich."

Und hier kommen die Experten für natürliche Sprache - Linguisten - ins Spiel. Aber auch das ist nicht mehr nötig, weil wir die Daten mit Massenmaterial versorgen können. Mit diesen Tools können Sie Tausenden von Menschen dieselbe Frage stellen und ihre Antworten zusammenstellen. Dann füttern Sie diese Antworten einfach in die A.I. und voila: der A.I. kann auf die Vielzahl möglicher Anfragen reagieren. „Aus den Tausenden von Abfragen können wir jetzt im Grunde maschinell lernen, wie Milliarden anderer Abfragen generiert werden können“, sagt Vasisht.

Inverse fragte Vasisht, der schon lange ein Insider in der A.I. und natürliches Sprachverständnis, um für uns zu spekulieren.

Kann MindMeld am erweiterten Dialog teilnehmen? Wenn ich beispielsweise eine Folgefrage stelle, wird der A.I. verstehen und weiter reagieren?

Ja. Das ist Teil des Designs. Wenn jemand eine unvollständige Frage stellt - wenn ich zum Beispiel einen Kaffee bestelle und die Größe des Kaffees nicht spezifiziere, wird er zurückkommen und sagen: „Welche Kaffeegröße haben Sie? wollen?"

Erwarten Sie Fortschritte beim Turing-Test?

Ich denke, wir sind ziemlich nah dran. Ich meine, IBM Watson hat es getan Gefahr! und ich denke, das war ein wirklich gutes Beispiel. Wir sind an diesem Punkt: Es kommt sehr nahe. So wie wir jetzt, was die Spracherkennung angeht, an dem Punkt sind, an dem Maschinen so gut sind wie Menschen, denke ich, dass wir - sicherlich in den nächsten drei bis fünf Jahren - an einem Punkt sein werden, an dem die meisten dieser Gesprächsstimmen sind Systeme gelten als so gut wie Menschen.

Welche Art von Hausautomationsaufgaben macht MindMeld?

Wir können unsere Technologie auf jede Art von Produkt, jede Art von Service und jede Art von Datendomäne anwenden. Hausautomation ist eine davon. Innerhalb des Hauses gibt es Beleuchtungssteuerung, Thermostat, Sicherheitssysteme, Audiosysteme, Videosysteme und vieles mehr. Wir können jedes der Systeme steuern, vorausgesetzt, es gibt die entsprechende Schnittstelle.

Was wünschst du dir, du könntest dich zu MindMeld in deinem eigenen Haus verbinden?

Ich denke, dass fortgeschrittenere Anwendungsfälle - zum Beispiel das Sprechen mit meinem Spotify, um zu sagen: "Play me the Rolling Stones-Playlist" oder "Play me klassische Musik heute Abend" - diese Art von Dingen wäre… fantastisch.

Etwas mehr Unerwartetes oder Out-of-the-Box, das Sie mit Ihrer Stimme kontrollieren möchten?

Die Dinge, die ich Ihnen beschrieben habe, sind die Dinge, von denen ich denke, dass sie unmittelbar bevorstehen. Mit anderen Worten, dies wird sehr bald geschehen. Was nicht sofort passieren wird, denke ich, wären Mikrowellen, Kaffeemaschinen und Kühlschränke. Wenn diese Arten von Geräten kontrolliert werden, kann ich grundsätzlich sagen: Ist meine Kaffeemaschine bereit für die Zubereitung von Kaffee? Schalten Sie die Kaffeemaschine ein “und wenn sie nicht vorbereitet wurde, sollte sie zurückkommen und sagen:" Es tut mir leid, aber Ihre Kaffeemaschine ist nicht bereit "- diese Art von Intelligenz gibt es noch nicht. Das ist der heilige Gral: Wo grundsätzlich kann jedes Gerät mit Ihnen sprechen und Ihnen sagen, was es kann und was nicht. Aber wir sind noch nicht ganz da.

Was hält Ihrer Meinung nach die Branche zurück?

Dies sind jetzt extrem kostengünstige Geräte. Ich meine, das sind Geräte, die man für fast nichts kaufen kann. Vor zehn Jahren kosten sie viel mehr.Das Einfügen neuer Funktionen trägt also zu den Kosten dieser Geräte bei. Letztlich ist der aktuelle Wertbeitrag sehr stark; Die meisten dieser Hersteller neigen nicht dazu, neue Funktionen hinzuzufügen, es sei denn, sie sind zu sehr niedrigen Kosten.

Ich denke, das ist ein Aspekt davon. Der andere Aspekt ist, dass wir über die Verbindung dieser Geräte sprechen. Es muss also mehr als nur eine Sprachanwendung für die Verbindung dieser Geräte geben. Es muss mehr Fähigkeiten geben, die auf dieser Verbindung genutzt werden müssen, bevor sie funktionsfähig werden.

Kennen Sie ein Unternehmen, das an letzterer Kapazität arbeitet?

Viele Halbleiterfirmen arbeiten an sehr günstigen Mikrofonarrays. Die Art von Dingen, die Sie grundsätzlich - zu sehr geringen Kosten - auf so ziemlich jedem Gerät oder jeder Anwendung einbetten können, dass eine Spracheingabe möglich wäre. Und Sie müssen nicht neben diesen Geräten stehen - Sie können aus einer Entfernung von 5 Metern sprechen. Diese Fähigkeit aufzubauen - ich denke, das ist der Ausgangspunkt. Ich denke, das ermöglicht es den Leuten, Mikrofone auf Geräten zu platzieren, und dann werden die anderen, erweiterten Funktionen folgen. Aber im Moment kenne ich kein Unternehmen, das diese Art von intelligenter Kaffeemaschine, intelligenter Mikrowelle oder Waschmaschine baut.

Was ist Ihre beste Einschätzung für voll intelligente Häuser und vollständig intelligente Wohnungen?

Heute haben wir fast alle wesentlichen Subsysteme im Haus, die automatisiert werden sollen und die automatisiert werden können. Dazu gehören Leuchten, Thermostate, Sicherheitssysteme, Garagentore, Haustürschlösser - solche Dinge. All diese Dinge können gemacht werden. Das Problem ist wirklich um Preispunkte. Diese befinden sich immer noch an dem Preispunkt, an dem vor allem Early Adopters und Menschen, die ein wirklich dringendes Bedürfnis nach ihnen haben. Aber die Preispunkte dieser Dinge fallen dramatisch, sehr schnell. Ich denke, wir werden diese Subsysteme wahrscheinlich in den nächsten Jahren auf den Massenmarkt bringen.

Die anderen Dinge, über die ich gesprochen habe - die Automatisierung der sehr preiswerten Geräte -, glaube ich, sind wahrscheinlich frühestens in fünf bis sieben Jahren. Mehr als 10 Jahre, bevor diese Realität werden. Aber wie ich schon sagte, das sind Dinge, die eine Reihe anderer Dinge erfordern, um zusammen zu kommen. Und es könnte früher passieren, wenn diese verschiedenen Inhaltsstoffe früher ineinandergreifen.

Wie würde eine Wohnung in New York City oder San Francisco im Jahr 2050 aussehen?

2050! Beeindruckend. Ich denke, wir werden voll da sein. Die Art von Dingen, die wir in Science-Fiction-Filmen sehen - bei denen Sie praktisch mit jedem System in Ihrem Haus sprechen und alles mit Sprache steuern können -, denke ich, werden diese Fähigkeiten weit verbreitet sein. Sicherlich in Städten wie New York und San Francisco.

$config[ads_kvadrat] not found