Zenbo SDK的問題,透過圖書和論文來找解法和答案更準確安心。 我們找到下列線上看、影評和彩蛋懶人包

Zenbo SDK的問題,我們搜遍了碩博士論文和台灣出版的書籍,推薦高煥堂寫的 AI機器人、藍芽與Android整合開發技術 可以從中找到所需的評價。

實踐大學 工業產品設計學系碩士班 盧禎慧所指導 王滬懷的 正向情緒表情辨識的擬人化分析研究 (2020),提出Zenbo SDK關鍵因素是什麼,來自於擬人的情緒表情、眼動追蹤、正向情緒。

而第二篇論文國立虎尾科技大學 資訊工程系碩士班 陳國益所指導 叢鴻日的 用於虛擬佈展與互動導覽之混合實境全自動物品替換影像辨識演算法 (2020),提出因為有 三維重建、影像辨識、虛擬實境、擴增實境、ARCore、虛實物品替換演算法、鏡面反射、手部辨識、語音互動、Android、數位轉型、新冠肺炎的重點而找出了 Zenbo SDK的解答。

接下來讓我們看這些論文和書籍都說些什麼吧:

除了Zenbo SDK,大家也想知道這些:

AI機器人、藍芽與Android整合開發技術

為了解決Zenbo SDK的問題,作者高煥堂 這樣論述:

正向情緒表情辨識的擬人化分析研究

為了解決Zenbo SDK的問題,作者王滬懷 這樣論述:

本研究探討擬人表情如何看起來快樂又自然真實。機器人、3D擬人、遊戲的怪物、模型雕刻等都會運用到臉部的情緒表情。這些擬人設計如何看起來生動自然,又能清楚辨識擬真人物表情的情緒,就顯得重要。本研究使用Generated Photos演算合成的AI圖片來做為辨識情緒表情的素材。假說認為,當AI合成的人臉眼輪匝肌框部與口輪匝肌一起牽動時,受試者認為圖片裡的人物是快樂又自然真實的表情。相反的,如果上述的表情肌肉沒有一致性的牽動時,快樂與自然的感受會來的低。實驗一以AI合成人臉圖片做情緒表情評分,同步進行眼動儀眼動追蹤。結果顯示:眼輪匝肌框部與口輪匝肌具有一致性牽動時,快樂、自然評分比較高,一致性圖片比

較不像AI合成人物,像真實人物且令人喜歡。眼動追蹤顯示,不論臉部牽動是不是一致性,視覺軌跡都會停留在嘴巴,判讀的總來回次數、總凝視時間都沒有差異。對一致性圖片,快樂與自然評分、自然與真人評分,皆有顯著性相關,自然與AI合成人物評分則為負相關。對非一致性圖片,快樂與自然評分有正相關。自然與AI合成人物評分則無相關。一致性的快樂與喜歡比非一致性快樂與喜歡相關係數高。實驗二為情緒辨識Affectiva 的App辨識實驗一同樣80張圖片,結果顯示:Affectiva App偵測JOY和SMILE在一致性圖片上高於非一致性圖片分數。實驗三根據實驗一眼動結果,檢測眼睛是否是判斷情緒的因素。將人臉圖片合成戴

上口罩,進行與實驗一同樣測驗,結果顯示:就算圖片上的人臉戴上口罩,受測者依舊對一致性圖片,給予較高的快樂、自然的評分。同時他們也認為這些圖片比較不像AI合成人物,而比較像真實人物,也較令人喜歡。圖片合成上口罩後,在一致性圖片情況,快樂與自然、自然與真人,皆有顯著性相關;而自然與AI合成人物無相關。在非一致性圖片情況,快樂與自然有相關。自然與AI合成人物無相關。一致性快樂與喜歡比非一致性快樂與喜歡的相關係數較低。跨實驗分析顯示:實驗一、二具有交互作用,對於快樂的評分,人會給予一致性組較高的評分,Affectiva App給非一致性組則給予較高的評分。實驗一、三則無交互作用,表示判讀整體臉部的自然

、喜歡比戴口罩高,AI合成人物相反比較低,只有快樂、真人有沒有戴口罩,人對情緒判讀感受是相似的。

用於虛擬佈展與互動導覽之混合實境全自動物品替換影像辨識演算法

為了解決Zenbo SDK的問題,作者叢鴻日 這樣論述:

近年來因應新冠肺炎的影響,全球各地開始限制外出,嚴重地方甚至封城,這導致許多公共展覽空間,例如:博物館和美術館展覽,紛紛被迫停止或延期。同時在疫情的影響下,民眾外出參與藝文活動的意願大幅降低,這也使得許多國家的博物館和美術館開始進行數位轉型,其目的在於避免人與人之間密切的接觸,進而導致疫情擴散,且藉由數位媒體的傳播,更能吸引到新的客群以及合作,達到知識資產分享之目的。本研究希望讓使用者在不出門的情況下,能夠自由的在家中進行佈展與參觀,同時以身邊常見之設備進行混合實境體驗,因此本研究選擇手機作為開發平台。考慮到傳統頭戴式裝置其採用魚眼鏡片進行變形成像,導致畫面有所變形不真實,於是本研究自行開發

頭戴式裝置,使用者只須將手機放入自製之頭戴式裝置內,便能透過鏡面反射(Specular Reflection)原理體驗混合實境的觀展效果。在本研究中,透過 Google ARCore 函式庫,可以得知使用者當前所在位置,與現實空間中環境樣貌,並使用單點雷射掃描系統對欲替換之現實物體進行掃描,以便實現虛實物體替換功能,並藉由自動縮放與矯正系統,使虛擬物體能夠覆蓋住現實物體。為了讓使用者能夠更隨心所欲地進行佈展,本研究另外設計出透過手指位置與即時語音指令,便可進行佈展的物體建置系統,基於 OpenCV 函式庫和顏色通道轉換演算法,達到捕捉使用者手部之效果,透過混合實境中的環境感知技術,讓使用者可以

憑藉著手指與語音指令,自由地將虛擬物品建置於現實場景中。同時為了讓使用者可以與虛擬物體進行互動,本研究基於 Android Studio 的 GoogleTranslate 函式庫,開發連續性背景是語音對話系統,讓使用者可透過語音的方式,與虛擬導覽員互動導覽和參觀佈展,藉以到無須出門就能體驗參觀博物館之混合實境體驗。