『您的瀏覽器不支援JavaScript功能,若網頁功能無法正常使用時,請開啟瀏覽器JavaScript狀態』

跳到主要內容區塊

工業技術研究院

:::

工業技術與資訊月刊

出版日期:

正方形 Icon 封面故事Features

眼見為憑,行有所據 Eye to Motion開創機器人產業新視界

文/魏茂國 攝/許育愷

從《機器戰警》到《魔鬼終結者》,從《駭客任務》到《變形金鋼》,
人類對於機器人的想像,不斷地在電影與小說上盡情發揮、創造。
但在實際生活中,雖不比螢幕與文字裡那麼令人感到華麗刺激和充滿想像,
機器人卻也已存在數十年之久,並幫助人類完成許多艱辛的工作。
然而,下一代的機器人會擁有哪些功能?具有什麼特色?能做哪些事?
從現今技術研發的角度,或許可窺知一二。

透過即時引導控制技器手臂進行夾持組裝,組裝零件可隨機分散放置,解決整列作業、降低前置作業時間,也可減少夾治具需求所短路徑教導時間。
透過即時引導控制技器手臂進行夾持組裝,組裝零件可隨機分散放置,解決整列作業、降低前置作業時間,也可減少夾治具需求所短路徑教導時間。

或許是受到小說和電影的影響,不少人對於機器人有著無限的想像及憧憬,認為它們「應該」無所不能,尤其還能像人類一般地活動、思考,甚至突破人類的極限。若拉回到現實生活,目前機器人並非如電影角色那般靈巧、有智慧,大部分的機器人只能依照人類設定的程式做動作,尤其是應用最早與最多的「產業用機器人」。

根據國際機器人聯盟(International Federation of Robotics,IFR)的定義,機器人可分為「產業用機器人」與「服務型機器人」兩大類。產業用機器人主要運用在汽車、面板、晶圓等各種製造業廠房中,多半以機械手臂為主,負責焊接、組裝、搬運、包裝等重要工作,提供自動化的生產流程,也提高了生產效能與產值。服務型機器人則以保全、伴侶、醫療照護、家庭勞務、教育、休閒娛樂等方面為發展主軸。相較於產業用機器人較為成熟的市場應用,服務型機器人目前雖處於萌芽階段,但由於社會型態朝高齡、少子化轉變,需求日漸增加,尤其在家庭/個人用方面,因此被認為是未來機器人產業的發展重點,推動全球經濟的下一個成長引擎。



傳統機器人智慧有限

人如果要用手去東西,會配合雙眼了解物體的距離,然後控制手臂去協調:嵌入式即時系統物體追蹤模組就運用相通的道理,幫助機器人達到手眼協調。
人如果要用手去東西,會配合雙眼了解物體的距離,然後控制手臂去協調:嵌入式即時系統物體追蹤模組就運用相通的道理,幫助機器人達到手眼協調。

產業用機器人用於製造業的生產線上,過去已發展相當多元且成熟,是項極為普遍的應用,且機器人能夠快速、準確地重複相同的動作,可以取代會疲累、需休息的人力。但產業用機器人使用至今二十多年,卻也顯露出不少發展瓶頸。

首先在於導入機器人生產時,生產線的規劃必須非常嚴謹,因為機器人只會依照原本設定好的環境及程式來動作,於是工件與機器人的相對位置及距離,都需要安排妥當,所有物件、機具、器材等,也都得放在固定的位置上;若是稍有誤差或偏移傾斜,很可能就無法正常運作。

換句話說,在這樣一個「結構式環境」(structured environment)中,需以外在環境的調整,來配合機器人的運作,這也是設計生產線時最複雜的部分;假使要更換生產線,所有環境和機器人就要全部重新設定一遍。相對的,人力作業雖然速度較慢,卻不會受到位置空間的限制,可以有更高的生產彈性。

工研院機械所顧問與交通大學電機工程學系教授胡竹生指出,在過去大量生產的時代,機器人可以提供極高的生產效益;但時至今日,產品趨勢朝向少量多樣,產品生命週期縮短,如果得花上數週或數月的時間重新規劃生產線,實際生產時程也可能只維持數個月,對於企業來說不僅成本過大,也無法滿足市場的需求。例如目前產品種類多,但每項產品產量偏少的行動電話,就是最明顯的例子。

此外,為了能夠讓機器人有充裕的工作空間,廠房的使用面積也必須配合增大;經常可以看到的狀況是,工廠裡的機器人是用鐵籠子圍起來,以減少作業進行時外界的干擾,也避免與現場人員有所衝突,以維安全。不過較不理想的是,一旦生產製造出現了問題,整條生產線都得要停止作業,才能派人進入檢修,找出問題所在,停機時間愈長,造成的損失就愈大,這也是目前產業用機器人的研發,多是以提高機器人可靠性為主要方向的原因。

這樣的機器人智慧,似乎與一般人想像中的機器人,有著不小的落差,胡竹生以日本的製造業為例,許多高檔的產品,都還是在日本當地生產,而且品質比海外所生產的還要好,有如精品一般,在市場上產生價位的區隔;台灣產業的下一步,也應該朝向精品的形式發展,並利用高科技來協助提升製造技術,同時企業也才會願意根留台灣。其中機器人就是一大重點,如何使機器人變得更聰明,在生產線上可以很有彈性的協助作業人員完成生產工作,就成了研發的主軸。

要能提高機器人的智慧,首先就要使機器人可以如同人類般「認知環境」,並經過理解判斷後,做出正確的反應及動作。這一連串由「知」到「行」的機器人行為,也正是由工研院主導,並與交通大學、清華大學及日本東京大學等校教授所共同合作研發的「Eye to Motion視覺伺服控制」技術核心。

視覺技術嶄新突破

上方的攝影機是眼睛,當眼睛(視覺)看到物體時,擷取影像偵測運算,然後利用下方的機器手臂來動作,完成所謂的「Eye to  Motion」。
上方的攝影機是眼睛,當眼睛(視覺)看到物體時,擷取影像偵測運算,然後利用下方的機器手臂來動作,完成所謂的「Eye to Motion」。

簡單地由字面上來解釋,「Eye to Motion」就是使機器人能透過視覺(攝影機),從影像的內容資訊加以計算分析,然後做出適當的動作。所謂的「視覺伺服」(Visual Servo),其實與「Eye to Motion」是相同的概念,也就是根據視覺(Eye)來決定動作(Motion)。

若回到生產線上,假設這樣視覺感知與動作的技術能夠導入,相對地就可以使作業環境與程序的規劃安排更有效率,例如工件置放發生歪斜的狀況,機器人也能經由影像來判別,從而找出正確的夾取位置及角度,完成工作;如此一來,生產線就會變得更具彈性,更換生產線所需的前置時間也可以縮短。

另一方面,當生產線的彈性度增加,機器人的工作空間也不再那麼受限制時,地板使用面積(shop floor area)也能縮小,可以減少廠房成本、提高經濟價值。此時機器人所面對的,可以是一個半「非結構環境」(unstructured environment),而且還能與現場人員進行分工;其中的技術關鍵,就在於如何經由影像的介面與視覺的處理,讓機器人能夠快速理解工作內容並投入生產,形成「人機共存」的作業模式。

也就是說,過去直接以程式來調整控制機器人的方法,在下一階段將提升至示範教導(Teaching by Demonstration)的方式。目前國際間一項產業機器人的研發重點稱做牽引規劃(Lead Through Programming),即是利用力迴授方法,使操作人員可以抓著機器手臂直接進行路徑教導。若搭配視覺技術,則可以使教導的路徑與工作空間或工件的關係更加精確與直覺。在這樣的技術基礎之上,方可引入更為高階的影像認知與工作描述功能,進一步降低教導所需的時間與複雜度,讓機器人實際成為作業人員的貼身助手。

此為上圖上方攝影機之特寫
此為上圖上方攝影機之特寫

以每秒數十張影像、每張影像需尋找、記憶與搜尋比對大量的特徵,不難推估在以視覺技術為核心的「Eye to Motion」背後,隱含著必須運算處理相當多且複雜的影像資料,除了要能快速運算進而反應動作外,遇到特徵改變時,例如視角的改變、環境中的物體消失或突然出現、光線改變等,也同樣要能因應。最主要的是,機器人根據影像處理後的資訊做出的行動必須準確,這使得面對環境變異時的影像處理要有很高的強健性,此一特性使計算需求變得非常龐大。

若考量產業的實際需求,如果為了處理大量的影像資料,這樣一台機器人卻要背負為數不少的運算單位或電腦,造成體積大、價格昂貴、耗電量大,不會得到市場的青睞。胡竹生表示,人類即使遇到不同的環境,都能在短時間內適應、理解,但機器人仍要靠智慧系統的協助;而且不論方法有多麼複雜、目標有多高,都必須架構在可落實及使用的平台上,也是「Eye to Motion」目前仍持續精進改良的動力。因此,機械所針對「Eye to Motion」技術所持續開發的嵌入式視覺伺服開發平台VSP(Visual Servo Platform),正是解決上述問題的最佳利器。近程目標是以FPGA搭配高速DSP為平台,對於較為單純的環境應用,使多關節機器臂具備快速精準的視覺伺服功能。長程目標則將朝向系統晶片(SOC)的方向發展,對高速影像資料擷取、傳輸與交換、平行演算,以及面對更為複雜環境的智慧型演算法等開發關鍵技術。



亟需技術與應用的提升

「Eye to Motion」視覺伺服控制技術是工研院今年才開始進行的研發計畫,於8月所舉行的台北國際機器人大展中,工研院機械所即運用「Eye to Motion」的技術,展出「海豹神射手機器人」;透過兩支攝影機擷取影像偵測,分析籃框的距離與位置後,再驅動海豹機器人投籃,所需時間僅0.1秒就可完成。

同時展出的還有「視覺引導機器手臂組裝隨機分散之零件」,亦是經視覺影像的辨識運算後,驅動機器手臂抓取隨意放置的手機背蓋,並自動移至待組裝的手機上,精準完成組裝的動作。相同的技術還可以驅使機器手臂夾取咖啡托盤,並避開杯把的位置,以免造成碰觸掉落,且平穩地移往咖啡機盛滿咖啡。

胡竹生提到,在影像辨識的過程中,原本就具有不確定性,因為攝影機所拍攝到的影像,經常會受到環境光源等變化的影響,運動物體在影像中的形狀也並非都是相同的,因而「Eye to Motion」的研究,也正是要能處理這些不確定性,才能達到實用的目標。他並進一步解釋,雖然「Eye to Motion」離人類的智慧還很遠,但比起傳統產業用機器人,可以多做一些工作,這些突破已對工業製造產生很大的幫助。

目前「Eye to Motion」技術對於產業的應用,除了前述之組裝作業外,工研院還開發利用視覺技術進行檢測。以行動電話為例,由於機體內有許多模組大件,以往都是以人工進行檢測,卻會受限於2D視角;如果導入「Eye to Motion」的視覺技術以3D方式檢測,則可克服人眼不易辨視的缺點,將缺件、未確實熔接、零件脫落等情形確實辨別出來,並可結合機器人將瑕疵品挑出。

工研院機械所智慧模組技術部經理黃俊弘也指出,過去台商設廠生產主要是依靠人力,因此也偏向前往東南亞或中國等人工便宜的地區;隨著運費、貿易限制等環境因素的改變,台商逐漸將生產線移往接近市場的地方就地組裝,像是歐洲的匈牙利與捷克、美洲的墨西哥等。但即使這些廠商具備了技術,勞動力仍是一大問題,如果沒有充分可靠且穩定的人力,擁有再好的技術也是枉然;尤其現今產品上市時程短,廠商的壓力也更大。

即便是在中國,也有不少位於沿海地區的廠房與生產線,因應當地人工短缺的情形而遷至內陸城市;但以長遠的角度來看,未來依然會面臨相同的勞動力問題。由此可見,產業型機器人的發展應用不可或缺,也是工研院欲提升智慧型機器人技術,來協助台商的出發點。

機器人產業潛力雄厚

智慧型機器人產業,近年來已成為各國發展的重點。韓國政府不僅將機器人產業列為十大新世代成長動力產業之一,更於今年起,每年將投入超過新台幣50億元來研發先進機器人關鍵技術。中國亦將服務機器人視為高技術研發計畫的項目,並列入引領未來經濟發展的「十一五」規劃中。

在台灣,政府方面也提出了加速關鍵與模組技術發展、加速商品化產品開發、協助產品進入國際市場、擴大產業人才培育等四大具體發展策略,企圖帶動台灣機器人產業的發展,期望在2015年成為全球機器人設計與製造中心,並創造新台幣2,500億元的產值。

根據國際機器人聯盟的統計,受到全球經濟危機的影響,2008年產業用機器人的裝置數呈現衰退,為113,300台,但在亞洲地區(含紐澳)則較2007年成長4%,總產值仍成長至62億美元。胡竹生認為,單就產值而言雖然不算多,但產業用機器人可說是個萬用槓桿,可以應用在許多不同的產業,發揮出各種功能,所帶動的產值是相當大的。例如一座大型面板廠動輒數百億新台幣元的建廠經費,機器人的部分可能不到10億元,所占比例看似不高,可是大型面板根本無法靠人工搬運,若以專用機械如輸送帶等,則其製程安排將幾乎沒有彈性,因此搬運機器人若動不了,這些廠就無法運作,數百億元的投資也就無法顯現其效益。

尤其在機器人技術逐漸成熟之時,服務型機器人也愈受重視,而且較產業用機器人更具發展潛力。以IFR的統計顯示,2008年全球專業服務型機器人的數量已達6.3萬台,產值更達112億美元,個人(含家庭)用的機器人數量,也高達720萬台;預估在2009至2012年間,專業服務型和個人用機器人的數量,將分別增加4.9萬台及116萬台。

而對「Eye to Motion」來說,在改良產業用機器人之外,服務型機器人也是一大發展機會。胡竹生解釋說,當「Eye to Motion」延伸到服務型機器人,有兩個重要的技術,一是移動(Mobility),二是操控(Manipulation),兩者的目的都是要使機器人能在未知的環境裡行動;當眼睛(視覺)看到物體時,可以利用本身的手(如機器手臂)、腳(如輪子)來動作,這時手就產生了操控,腳就提供了移動。

不論是手或腳,機器人經過行動之後,物體與環境也會不斷變化,必須再透過眼睛來辨識分析。因此,從環境到眼睛,從眼睛到行為,又從行為到環境,就形成了一種循環,而「Eye to Motion」正是解決從眼睛到行為這部分的關鍵技術。

胡竹生以醫學上的「手眼協調」來形容,當嬰兒出生後,在眼睛逐漸看清楚環境的過程中,最重要的是學習如何看到物體之後,命令手臂及手指做出反應,如學習去抓取前方物體,這種整體性的手眼訓練過程,和機器人可說是相同的。

服務型機器人成未來要角

假如服務型機器人能夠在未知的環境中自由行走動作,機器人為人類服務的範圍就可以非常廣泛。但現實是,要做到這種高等智慧的表現,短期內很難辦到;因為這時機器人是處在一種「非結構環境」裡,不像工廠裡的環境幾乎是固定或計畫好的,以一般家庭的生活環境,隨時都可能產生改變,當然也增加了視覺辨識與記錄運算的難度。

要能夠使機器人在未知環境中偵測辨別,基於「Eye to Motion」的技術,工研院是朝「VSLAM」(Visual Simultaneous Localization and Mapping)的方向發展。如果未來買一台服務型機器人回家,首先便會面臨環境地圖的問題,最好的方法就是一面行走、一面建地圖,這和人類是相同的行為。

一般所謂的「SLAM」(Simultaneous Localization and Mapping,同步定位與繪製地圖),是利用雷射掃描的技術,在未知的空間裡行走,並同時進行扇形的掃瞄,以在不同角度中獲得與各物體間的距離,如此就能描繪出環境裡的空曠部分,形成一份「尺寸地圖」。

透過雷射掃描的優點,在於準確性高,但價格昂貴也是不爭的事實。胡竹生表示,SLAM用在服務型機器人身上,若要配備雷射掃瞄機,過高的價格恐怕讓人卻步,因此才會導入「Eye to Motion」的視覺技術,以較便宜的攝影機來取代雷射,開發VSLAM來定位記錄地圖。

但是利用視覺影像的缺點,在於對尺度不夠精準,有時無法判別出正確的距離;不過,以人類的眼睛而言,也無法辨別出精確的尺度,只能得其大概而已。若要採用VSLAM,可能得要放棄尺度,轉從抓取環境的特徵切入,並以對物體的辨識能力來加以操控。

高階技術仍待克服

有能力認識未被規劃的環境,是一項相當有用的技術。SLAM或VSLAM的技術如在公領域,胡竹生首先想到的就是地下坑道環境的運用,機器人若能使用SLAM技術,對地底環境與坑道位置瞭若指掌,並可自行行走,就能從事許多探勘、救援或挖掘等工作。

他還提到一項更先進的相關應用,就是自2004年起,美國國防部高等研究計畫局(The Defence Advanced Research Projects Agency,DARPA)所推出的Grand Challenge與Urban Challenge競賽。主辦單位每年設定不同的環境及路線,團隊參賽者可以運用各種控制系統與技術,讓無人駕駛的車輛順利跑完行程,途中還會有各種路況與其他車輛等狀況,這是對SLAM及VSLAM的技術極高的挑戰;甚至未來的車輛就能真正變成機器人。

服務型機器人還有另一大挑戰,就是使用者要如何指引機器人,讓機器人理解該做什麼事。若是機器人進入人類社會或家庭,所面對的是一般大眾,而非受過訓練的操作人員,因此必須適應人類的溝通方式,最直覺的介面就是「語音」。

服務型機器人的設計,應考量使用時的方便性,若要以按鍵輸入命令,就得走到機器人身旁;若要用遙控器,按鍵指令也無法設計太多。當機器人的功能愈多,透過「語音」技術,如果非得要用特定的詞句才能指揮機器人動作,就顯得沒有效率且不實用,而是要更口語化、人性化;例如要叫機器人過來時,與「過來」同義的詞都應該要能作用。

另外,當使用者所給予的訊息不夠完整,好比叫機器人「倒水」,卻沒有說明是要熱水還是冷水,此時機器人也應具備反問與對話的能力。在機器人的「語音」技術上,胡竹生表示,這些相關問題都還待研究解決,也包括如何避免環境中的雜音干擾、多人同時講話時的辨識,或是機器人的遠距收音問題等。

協同業者共同發展

事實上,過去在全球市場上即出現過不少服務型機器人,只可惜壽命大多不長。曾經設計出電子玩具菲比(Furby),並在全球大賣5,000萬隻,締造12億美元營收的鍾少男(Caleb Chung),於2006年推出新設計的電子寵物恐龍Pleo,由鴻海代工生產,並具有觸覺、視覺與聽覺等人工智慧及學習能力,還被《時代》雜誌(Time)票選為年度最佳發明,但該公司Ugobe卻在三年後宣布破產。

Sony於1999年推出的機器狗Aibo,也相當知名,於2006年停產前,共售出15萬隻。工研院機械所智慧機器人技術組組長王維漢認為,全球的服務型機器人產業尚未真正成形,在過程中也經常會有成功及失敗的案例;但儘管如此,國內的業者對於服務型機器人卻相當有興趣,尤其是ICT廠商,希望能夠藉由既有的技術基礎轉型,尋找下一個藍海商機。像是機器人領域的第一個整合型科專計畫「銀髮族伴侶機器人技術研發計畫」,是由華寶通訊、新光保全、慧智網等業者合作,鎖定高齡少子化社會中的銀髮族,共同開發「中高齡族群居家伴侶機器人」。

王維漢並表示,工研院承辦經濟部工業局的機器人產業輔導計畫,自2006年至今已有56個輔導案,顯見國內廠商對機器人技術的強烈需求。他還指出,目前工研院開發智慧型機器人技術,是以2007年底的第六屆全國工業發展會議中,針對智慧型機器人產業所提出三個發展方向為主軸,分別是家用、益智娛樂及產業用機器人,加速發展伺服器、感測、定位、語音等關鍵模組,並建置產業交流平台;而工研院也將在機器人產業的成形過程中,扮演好技術研發及協助廠商跨入機器人新興產業的角色。

下載全文PDF Icon下載全文PDF