日本大阪大學近日發(fā)布公報說,該校領(lǐng)導的研究小組開發(fā)出一種動態(tài)面部表情合成技術(shù),可使人形機器人更好地表達情緒狀態(tài),如興奮或困倦。這項技術(shù)有望顯著提升交流型機器人的價值,使它們能夠以更自然、更像人類的方式與人類交換信息。
據(jù)公報介紹,雖然人形機器人可以微笑、皺眉或表現(xiàn)出其他各種熟悉的表情,但要在這些表情背后找到一致的情感狀態(tài)卻很困難,令人無法確定它的真正感受,從而讓人產(chǎn)生一種不適感。
傳統(tǒng)上,人形機器人的面部表情采用“拼湊法”來實現(xiàn)。這種方法需要準備多個預先設(shè)定的動作場景,以確保在這些場景之間切換時避免不自然的面部動作。但在實際運用中充滿挑戰(zhàn),不僅需要提前準備復雜的動作場景,在過渡過程中盡量減少不自然的動作,還要微調(diào)動作以精細控制所傳達的表情。
在這項新研究中,大阪大學等機構(gòu)人員開發(fā)出一種借助“波形運動”的動態(tài)面部表情合成技術(shù)。該技術(shù)將各種構(gòu)成表情的面部動作表示為單獨的波,如眨眼、打哈欠等。這些波被傳播到相關(guān)的面部區(qū)域并疊加起來,從而實時生成復雜的面部表情。該方法不需要提前準備復雜多樣的動作數(shù)據(jù),同時避免了不自然的面部動作過渡。
這種技術(shù)還可以根據(jù)機器人的內(nèi)部狀態(tài)調(diào)整個別波形,可以使機器人的內(nèi)部條件變化即時反映為面部動作的變化。
研究人員表示,在該技術(shù)輔助下,具備復雜面部動作的機器人將能夠展現(xiàn)更生動的表情,并且能夠根據(jù)周圍環(huán)境變化展現(xiàn)情緒變化,這將極大豐富人與機器人之間的交流。
相關(guān)論文已發(fā)表在日本《機器人與機電一體化雜志》上。 |