雖然說 CortanaAlexa、和 Google Assistant 等一眾數位助理終於實現了聲控電腦,但目前與其說是在與「數位助理」對談,不如說更像是在下指令,而且是一個指令一個動作。不過這點可能很快就會有所改變,微軟稍早在 Build 開發者會議上展示了併購新創公司 Semantic Machines 後取得的技術,讓 Cortana 能更好地理解你的每句話,以及前後事件間的關係。

在示範中,一位(大忙人)主管邊在辦公室走動,一邊持續與 Cortana 對話,從詢問行程、到更改會議時間、訂會議室、詢問下一個會議地點,一直到最後將地點上傳到車子的導航系統上,整個過程都相當地自然,由 Cortana 自行去理解每個新的指示與之前的指示之間的關連性。據微軟 CEO Satya Nadella 的說法,該公司最終的目的是將實際上處理你的指示的機器人/助理/技能給隱藏在 Cortana 後頭,讓你能以最自然的方式完成想做的工作。

不過,在示範中雖然對話已經很接近一般人,但內容上卻是很受限地還是在行事曆、地圖、天氣這範圍內打轉。對數位助理來說真正的挑戰,是走出這些基本的功能時,還能夠準確地理解人類的意思吧!