Categories

A sample text widget

Etiam pulvinar consectetur dolor sed malesuada. Ut convallis euismod dolor nec pretium. Nunc ut tristique massa.

Nam sodales mi vitae dolor ullamcorper et vulputate enim accumsan. Morbi orci magna, tincidunt vitae molestie nec, molestie at mi. Nulla nulla lorem, suscipit in posuere in, interdum non magna.

成功招攬人工智慧兩大教父級人物,大概也只有Google這樣的公司能做到!

多年前,Google共同創辦人布林(Sergey Brin)曾開玩笑說,他們希望開發出一部具有獨立思考和情緒能力的人工智慧電腦,照目前情況看來,Google似乎是玩真的。 研發出Google Glass和無人車的Google X實驗室團隊,兩年前延攬史丹佛大學教授吳恩達(Andrew Ng),為的就是利用Google龐大的數據中心打造人工智慧系統,並將其提升至前所未見的水準。現在,這項技術已經為搜尋技術帶來革命性的改變。 Google延攬人工智慧強人 吳恩達加入X實驗室後,Google工程師在他的協助下建構出全球規模最大的神經網路系統,更賦予電腦「識別」能力。此外,他們也建立出人類語音辨識和街景圖片模型,Google馬上發現龐大潛力,並將吳恩達的研究轉移到知識團隊(Google Knowledge Team),發展出的深度學習技術,大大革新了Google Glass、圖像搜尋和搜尋引擎等產品與服務。 「在我加入Google時,學術界最大的神經網路約有100萬個變量,而當時Google就已經可以構建規模大上1000倍的神經網路。」吳恩達認為,只有在Google這樣的公司才能夠提供神經網路研究所需的資源;Google每年投資在超級電腦數據中心的數十億美元資金更是不在話下。 去年夏天,吳恩達從多倫多大學請來人工智慧教父級人物辛頓(Geoffrey Hinton),花費數月時間改進Google的演算法,使得Android平台Jellly Bean系統去年推出時,語音識別錯誤率大幅降低25%。辛頓表示,他希望未來要進一步推升深度學習的研究層次。 在龐大資料中找出模型,讓電腦「自主學習」 現在,辛頓把目標放在打造比去年開發的10億節點更大的神經網路,他認為只要神經網路規模到達一定程度(如一兆個),就有機會讓神經網路真正去理解事物。 「建構出檔案的神經網路模型能夠提升搜尋功能。」辛頓如此相信,例如:接收檔案時不只要能辨別其中文字;更要能夠了解其意義,這就是人工智慧研究的目的。 通常,訓練神經網路必須要先過濾龐大的巨量資料,不過一旦模型建立後就可以大大提升搜尋效率。而Google知識圖譜(Knowledge Graph)所擁有的6億條數據就是辛頓打造神經網路的基礎。 辛頓說,雖然Google已經在用知識圖譜改善搜尋功能,但他認為神經網路有辦法研究知識圖譜並剔除錯誤,改善搜索結果。 吳恩達則舉例,如果要電腦識別一隻貓需要先消化龐大帶有貓「標籤」的圖片,要找到這些圖片並標示是非常繁重的工作。不過,他在之前用了自主學習演算法技術讓電腦不必標籤也可以「學習」貓的概念,但Google必須先寫出能夠在大量電腦上執行的程式才能建構真正的大規模神經網路。 2029年電腦可與人類智慧匹敵! Google高層非常重視是否能夠善用大型神經網路改善服務,人工智慧專家同時也是發明家的庫茲威爾(Ray Kurzweil)去年進入Google擔任工程部門總監,他在接受專訪時表示現在正致力於研究如何讓電腦能真正理解自然語言,並預測到了2029年,電腦就可以與人類智能匹敵,同時宣告搜尋已經開始走出原始查詢的「石器時代」。 如果庫茲威爾真能做到這一點,相信未來 Google 搜尋的成就恐怕將有驚人的表現。

多年前,Google共同創辦人布林(Sergey Brin)曾開玩笑說,他們希望開發出一部具有獨立思考和情緒能力的人工智慧電腦,照目前情況看來,Google似乎是玩真的。 研發出Google Glass和無人車的Google X實驗室團隊,兩年前延攬史丹佛大學教授吳恩達(Andrew Ng),為的就是利用Google龐大的數據中心打造人工智慧系統,並將其提升至前所未見的水準。現在,這項技術已經為搜尋技術帶來革命性的改變。 Google延攬人工智慧強人 吳恩達加入X實驗室後,Google工程師在他的協助下建構出全球規模最大的神經網路系統,更賦予電腦「識別」能力。此外,他們也建立出人類語音辨識和街景圖片模型,Google馬上發現龐大潛力,並將吳恩達的研究轉移到知識團隊(Google Knowledge Team),發展出的深度學習技術,大大革新了Google Glass、圖像搜尋和搜尋引擎等產品與服務。 「在我加入Google時,學術界最大的神經網路約有100萬個變量,而當時Google就已經可以構建規模大上1000倍的神經網路。」吳恩達認為,只有在Google這樣的公司才能夠提供神經網路研究所需的資源;Google每年投資在超級電腦數據中心的數十億美元資金更是不在話下。 去年夏天,吳恩達從多倫多大學請來人工智慧教父級人物辛頓(Geoffrey Hinton),花費數月時間改進Google的演算法,使得Android平台Jellly Bean系統去年推出時,語音識別錯誤率大幅降低25%。辛頓表示,他希望未來要進一步推升深度學習的研究層次。 在龐大資料中找出模型,讓電腦「自主學習」 現在,辛頓把目標放在打造比去年開發的10億節點更大的神經網路,他認為只要神經網路規模到達一定程度(如一兆個),就有機會讓神經網路真正去理解事物。 「建構出檔案的神經網路模型能夠提升搜尋功能。」辛頓如此相信,例如:接收檔案時不只要能辨別其中文字;更要能夠了解其意義,這就是人工智慧研究的目的。 通常,訓練神經網路必須要先過濾龐大的巨量資料,不過一旦模型建立後就可以大大提升搜尋效率。而Google知識圖譜(Knowledge Graph)所擁有的6億條數據就是辛頓打造神經網路的基礎。 辛頓說,雖然Google已經在用知識圖譜改善搜尋功能,但他認為神經網路有辦法研究知識圖譜並剔除錯誤,改善搜索結果。 吳恩達則舉例,如果要電腦識別一隻貓需要先消化龐大帶有貓「標籤」的圖片,要找到這些圖片並標示是非常繁重的工作。不過,他在之前用了自主學習演算法技術讓電腦不必標籤也可以「學習」貓的概念,但Google必須先寫出能夠在大量電腦上執行的程式才能建構真正的大規模神經網路。 2029年電腦可與人類智慧匹敵! Google高層非常重視是否能夠善用大型神經網路改善服務,人工智慧專家同時也是發明家的庫茲威爾(Ray Kurzweil)去年進入Google擔任工程部門總監,他在接受專訪時表示現在正致力於研究如何讓電腦能真正理解自然語言,並預測到了2029年,電腦就可以與人類智能匹敵,同時宣告搜尋已經開始走出原始查詢的「石器時代」。 如果庫茲威爾真能做到這一點,相信未來 Google […]