【T小編 東京報導】在昨天的 Google 行動革命亞太媒體活動中,除了有神祕嘉賓 Eric Schmidt 發表 Keynote 外,還包括了一系統的 Google 產品 Demo,其中最吸引人的,就是下一版 Android 系統 Ice Cream Sandwich 的展示了,有些功能是亞洲使用者沒有看過的哦!

在Eric Schmidt之後是Google亞太區營運總裁Daniel Alegre上陣,主要是講述亞洲的行動革命現況。Daniel Alegre表示現在行動網路已經融入我們的日常生活之中,人們走在路上時,可以使用智慧型手機引導交通路線;在逛博物館時,只要用手機拍照,就可以得到藝術品的相關資料。而且行動網路是無國際的,日本設計師開發的MyCloset程式,可以推向全世界,獲得1、2百萬的下載次數;而在中國也有開發者專門為App開發者進行本地化的工作,讓Android App更適合在當地使用。

▲智慧型手機已經融合在我們的日常生活中。

另外Daniel Alegre也提到了行動服務和手機發展的關係,他以日本震災時的Person Finder服務為例,日本震災的Person Finder在短時間內就收集到670,000筆數據,這是由於行動網路的高度發展,與手機電池的可用時間延長,使得人們願意使用手機拍下倖存者的字條,並傳送到Picasa進行文字辨識,最後才送入Person Finder的資料庫中。

▲日本震災時,Person Finder所收集到的資料筆數,遠超過海地與鈕西蘭地震時的資料數量。

Daniel Alegre也表示現在行動網路費率降低到一般大眾可以接收的程度,行動裝置也提供更多互動方式,而且更多的使用者願意擁抱科技,這些因素搭配在Android平台上開發的App,使得我們正面臨行動革新的前線,未來將影響人們與資料互動的方式。

<後面還有 Ice Cream Sandwich 展示>

接下來則是Android全球合作夥伴關係總監John Lagerling的時間。他帶領我們回顧過了過去的Android版本,並描述了Android的現況,接著也帶領我們展望Android的未來,這也是Demo中最讓人興奮的一場,因為代號為Ice Cream Sandwich的下一版Android系統就要在人前展示它的部分功能。

▲ John Lagerling 帶領與會者從世界第一部Android手機T-Mobile G1開始回顧。

▲ John Lagerling 展示了全球Android裝置啟動的近況。

▲John Lagerling也介紹了現在日本的Android手機,左邊那隻貝殼機不但有可翻轉的觸控螢幕,而且還是使用Android 2.3系統。沒猜錯的話,應該是Sharp的Hybrid 007SH

▲Ice Cream Sandwich的展示讓人不禁十分期待這個平板/手機兩用系統到來,John Lagerling表示在今年內就會推出。

<後面還有擴增人類展示>

接著Google資深工程師Johan Schalkwyk展示了智慧型手機幫助人們進入Google所謂 Augmented Humanity(擴增人類)時代的技術,Augmented humanity 是指人類藉著儀器上的功能,如相機、GPS、行動網路、雲端資料和螢幕等,增進自己的感官功能,像是過去輸入時可能必須眼手並用,現在你只要靠一張嘴就可以輸入文字;而在一個語言陌生的環境時,過去可能感到孤獨無依,現在藉著語音翻譯的功能,就算語言不通也可以和他人溝通。

▲Johan Schalkwyk認為人工智慧已經落伍了,現在是擴增人類的時代。

▲行動裝置上的語音辨識、機器翻譯和電腦視覺是使用者進入擴增人類時代的工具。

Google認為現在行動裝置上有三種主要功能可以把你帶入Augmented Humanity的時代:

語音辨識

Johan Schalkwyk展示了語音搜尋和輸入的功能,現在你不只可以利用語音辨識搜尋字串,還可以利用Voice Action(語音動作)指令要搜尋的種類。語音甚至有更多的功用,在Android上只要遇到文字輸入框,你就可以利用語音辨識輸入內容。

▲Johan Schalkwyk展示語音辨識的各種功能。

機器翻譯

接著由Josh Estelle展示機器翻譯的功能,Josh Estelle表示Google的翻譯技術其實就和著名的羅塞塔石碑一樣,只由比對文字進行,不過Google可不是靠石碑來翻譯,而是使用極為龐大的語言資料。

這次Josh也展示了Google Translate還在實驗中的功能,Conversation Mode(對話模式),在這個模式下,你可以對話的方式,翻譯兩個不同語言的語音,就像和同語言的人當面對話一樣。

▲其實Google翻譯的技術和一塊古老的石碑類似。

▲Josh Estelle展示對話模式的功能。

電腦視覺

然後Brad Ellis則展示了電腦視覺的應用,其實這個應用我們早就看過了,就是Google Goggles的圖片搜尋應用。智慧型手機現在可以用拍照的方式搜尋景點、書籍、酒標、唱片,甚至是數獨等有固定特色的物品,讓你可以用視覺辨識的方式,搜尋圖像的資料。Brad Ellis也表示這個技術其實並沒有使用非常複雜的演算法,主要是靠著龐大的資料提供使用者想要的搜尋結果。

▲Google Goggles可以從極為龐大的資料中比對圖像的特色。

▲Brad Ellis展示Google Goggles的圖像搜尋功能。