word免費下載2016的問題,透過圖書和論文來找解法和答案更準確安心。 我們找到下列線上看、影評和彩蛋懶人包

word免費下載2016的問題,我們搜遍了碩博士論文和台灣出版的書籍,推薦文淵閣工作室寫的 中老年人快樂學電腦(Windows 10+Office 2019/2016)《大字大圖好閱讀,教學影片好上手》 和姚良的 Python3爬蟲實戰:數據清洗、數據分析與可視化都 可以從中找到所需的評價。

另外網站office 2016 x64繁體中文版下載 - Paula也說明:WPS Office 繁體中文免費試用版專區,下載download主檔後需要序號才能使用。 金山WPS Office 2016 TW 繁體中文版,支援Word、PPT、EXCEL、PDF 。是office替代方案的 ...

這兩本書分別來自碁峰 和中國鐵道所出版 。

南華大學 旅遊管理學系旅遊管理碩士班 丁誌魰所指導 林家如的 以網路文字探勘探討生態旅遊意象、體驗價值與旅遊療癒-以賞鯨為例 (2021),提出word免費下載2016關鍵因素是什麼,來自於賞鯨、文字探勘、生態旅遊、旅遊意象、旅遊療癒。

而第二篇論文朝陽科技大學 資訊管理系 李麗華所指導 劉曄珊的 增強資料特徵之抽象文本分類技術研究 (2021),提出因為有 自然語言處理、文本分類、支持向量機 (SVM)、人工智慧的重點而找出了 word免費下載2016的解答。

最後網站microsoft office 2016 破解版下載 - Motics則補充:Microsoft Office2016中的Excel、word、PPT都非常智能化,界面最新加入暗黑主題,并且按鈕的 ... office 2016繁體中文破解免費下載+教學(微軟Office 2016 專業增強版) ...

接下來讓我們看這些論文和書籍都說些什麼吧:

除了word免費下載2016,大家也想知道這些:

中老年人快樂學電腦(Windows 10+Office 2019/2016)《大字大圖好閱讀,教學影片好上手》

為了解決word免費下載2016的問題,作者文淵閣工作室 這樣論述:

《大字大圖好閱讀,教學影片好上手》   豐富樂齡學習力!   為熱愛學習的您,量身打造最詳細實用的樂齡學習書!   坐在電腦前用對的方式輸入、搜尋,即使不出門也能快速知道天下事!整合全新的Windows 10,從基礎開始講解包含電腦硬體、輸入法、影音、網路應用、相片處理、文書、簡報…等操作,每一個步驟都有詳細的講解與超大圖示,並搭配教學影音光碟,就像是一對一專屬家教,只要跟著操作就能在使用上得心應手。   [認識電腦]   從「開始」畫面與整體環境開始介紹,依自己的使用習慣,打造出最適合的介面,並認識設備、健康坐姿與開關機、檔案管理...等正確操作方法,健康又快樂的踏出學習第一步。

  [生活應用]   認識鍵盤、熟悉中英文字輸入,並說明如何以電腦播放音樂、搬移檔案到隨身碟,也能將CD的曲目存到電腦中,再自選曲目燒錄成自己想聽的音樂光碟,想聽的時候就能隨時播放跟朋友分享,讓生活中更添樂趣。   [網路應用]   統一發票兌獎、郵遞區號查找、中英文地址翻譯、電子郵件傳遞,還推薦常用的購書、線上學習、新聞…等實用網站,隨手掌握生活大小事。   [數位相片處理]   用相片留住許多美好的回憶,簡單的步驟讓相片匯入電腦並瀏覽,還可以調整出漂亮又吸引人的效果,再與好朋友們分享生活的精采與感動。   [編寫文件]   以常見又容易上手的Word,編輯記錄資料、文章整理、旅遊

規劃表..等文件,可以自己製作排版並插入合適的相片或圖片,最後還可列印文件發給朋友,操作容易跟著一步一步做就能很快完成。   [相簿簡報製作]   利用PowerPoint快速設計旅遊相簿簡報,將充滿回憶與歡樂的行程相片做成動態簡報,加上說明文字,方便與朋友分享,也記錄下美好的回憶,還可以轉成影片自動播放。   本書適用Windows 10/Word 2019 & Word 2016/PowerPoint 2019 & PowerPoint 2016   非常適合剛學習電腦的熟齡朋友,也可作為電腦愛好者和自學讀者的參考用書。   特別提供:超值教學影片/範例檔/1000張

免費圖庫素材   (為線上下載,書中附有下載方式的詳細說明)  

word免費下載2016進入發燒排行的影片

#字正腔圓 #電影 #與芬尼學英語

Drama
Atonement (2007)
To Kill a Mockingbird (1962)

Fantasy
Nanny McPhee (2005)
Harry Potter and the Half Blood Prince (2009)

Horror
Shining (1980)
Exorcist (1973)

Western
Once Upon a Time in the West (1968)
The Revenant (2015)

Detective movies
Murder on the Orient Express (2017)
Sherlock Holmes (2015)

Cartoon
Zootopia (2016)
Finding Nemo (2003)

Sci-Fi
Interstellar (2014)
Arrival (2016)
Marsian (2015)

Adventure
Indiana Jones and the Lost Ark (1981)
Back to the Future (1985)

Thriller
Jaws (1975)
Independence Day (1996)
Die Hard (1988)


訂閱與芬尼學英語 ► http://bit.ly/flayt-sub

課程查詢 & 更多資源 ► http://bit.ly/fla-home

喜歡我們的短片嗎?到 Patreon 支持我們! ► http://bit.ly/fla-patreon

▍播放清單:
時事英語 ► https://www.youtube.com/playlist?list=PLs2gyIM_VlT84AoCFN-Nedf3nZXbrPsAp
Word Pairs 怎樣分 ► http://bit.ly/2hS1MCF
品牌名學英語 ► http://bit.ly/2qd3mUq
名人英語 ► https://www.youtube.com/playlist?list=PLs2gyIM_VlT9rX0D4JFat1u0l599g8kbv
朗誦節特訓 ► https://www.youtube.com/playlist?list=PLs2gyIM_VlT82Hlz7ZxH3MqYV1IsoJb0u

▍更多學習資源:
● 訂閱電子報:http://bit.ly/fla-nl
● 下載免費學習資源:http://bit.ly/36VhrYS
● 加入 Finnie's Facebook 群組:bit.ly/flafbgp

▍Follow 芬尼:
● 博客: http://bit.ly/fla-blog
● Facebook: http://bit.ly/fla-facebook
● Instagram: http://bit.ly/fla-instagram
● Pinterest: http://bit.ly/fla-pinterest

?Free stuff!!! :)
Use my iHerb Discount Code: ASC7218
Sign up at AirBnb and get HKD$290 in travel credit: https://www.airbnb.com/c/tiffanys213
Get a FREE first Uber ride (up to HK$50): https://www.uber.com/invite/tiffanys2213ue

以網路文字探勘探討生態旅遊意象、體驗價值與旅遊療癒-以賞鯨為例

為了解決word免費下載2016的問題,作者林家如 這樣論述:

  本研究旨在透過網路文字探勘分析網路社群文章,來瞭解遊客對賞鯨生態旅遊的意象及內心的體驗與旅遊的療癒。先運用中文斷詞系統整理關鍵詞進行詞頻分析、共詞分析的內容分析,再用探索式因素分析及多元尺度做量化統計,以更客觀的量化數據來探討賞鯨旅遊的生態旅遊意象、體驗價值與旅遊療癒的關聯性。  研究結果發現:(1)賞鯨遊客以宜蘭、花蓮、臺東三大賞鯨旅遊景點為主,賞鯨在台灣是指賞鯨魚和海豚,賞鯨行程多以2小時為主,在花東賞鯨看到海豚的機率高達九成,但看到鯨魚是可遇不可求。(2)觀光設施意象裡的交通便利性,花蓮花蓮港最多,宜蘭烏石港(龜山)次之,花蓮石梯港和台東成功港最少。 (3)景點導覽以花蓮多羅滿賞鯨

公司(花蓮第一個賞鯨標章的公司)遊客提及最多,透過黑潮海洋文化基金會(NGO)的專業海洋生態解說讓遊客產生深刻的生態旅遊意象如下:鯨豚的特殊行為和外表特徵;清水斷崖和海岸山脈(山景);海景、日出;花蓮的人文歷史與海洋文學等。與黑潮創辦理念「關懷台灣海洋環境、生態與文化」不謀而合,期望將海洋保育觀念深植遊客的心中。(4)賞鯨的乘船舒適度也是遊客在意的重點,建議會暈船的人,乘船前30分鐘要先吃暈船藥,海象不好時或是颱風天的前夕,不適合出海賞鯨。(5)賞鯨生態旅遊解說與體驗,讓遊客產生許多體驗與療癒的感受,遊客紀錄著許多體驗與療癒的詞語「放鬆、興奮、幸運、喜悅、樂趣、感受、魅力、尊重、希望、期待、熱

情、喜歡、滿意、信賴、驚喜、難忘、壯觀、著迷、暈船、可惜」。由此可知賞鯨的體驗活動對旅遊療癒呈現很大的關聯性。(6)從重要關鍵詞的探討,得知遊客期待可以看見大型的鯨魚、種類和數量很多的海豚、海豚的特殊行為、出海很快就看到鯨豚、能捕捉到鯨豚生動的照片、近距離觀賞鯨豚、增加海上體驗時間、友善賞鯨、海象平穩、海上安全。  根據上述研究結果,建議業者結合在地小旅行,規劃客製化的套裝行程與折扣方案,吸引遊客前往。針對遊客需求,增加賞鯨行前解說(告知賞鯨是可遇不可求)和建立賞鯨活動乘船舒適度的參考資訊。期許賞鯨業者朝著賞鯨標章(友善賞鯨)的目標邁進,提升賞鯨解說品質,讓賞鯨生態旅遊可以永續發展,達到生態與

經濟的平衡。

Python3爬蟲實戰:數據清洗、數據分析與可視化

為了解決word免費下載2016的問題,作者姚良 這樣論述:

作為一個自學爬蟲的過來人,曾經走過很多彎路,在自學的道路上也迷茫過。每次面對一個全新的網站,都像是踏進一個未知的世界。你不知道前面有哪些反爬手段在等著你;你不知道你會踩進哪個坑裡。我做爬蟲的幾年時間裡,爬過很多的網站、遇到過很多的難題。這本書就是我這幾年經驗的總結,從開始的工具的學習使用,到實戰專案的爬取,難度一步一步的升級,需求也越來越複雜,有各式各樣的爬取方式。 本書主要內容與資料爬取相關,包括編寫爬蟲所需要的基礎程式設計知識,如Requests包、Scrapy框架和資料庫的使用,到專案實戰教程,適合Python基礎入門的讀者。如果你是其他行業的從業者,想進入IT行業成為一位元爬蟲工程師

,又或者你已經是IT行業的從業者,本書在能夠讓你在對爬蟲工程師的工作內容有所瞭解的同時,也能讓你掌握作為一個爬蟲工程師所需要具備的基礎技能。 姚良,2016-2019 深圳絲路天地電子商務有限公司 爬蟲工程師。熟練使用Python語法,物件導向程式設計,JS破解、分散式爬蟲、Scrapy框架、Requests庫、Redis、Mongodb、高併發、非同步程式設計。 第一篇 基礎知識 第1章 Python環境搭建 1.1 Python的安裝 2 1.1.1 Windows下Python的安裝 2 1.1.2 Mac OS X下Python的安裝 3 1.1.3

Linux下Python的安裝 3 1.1.4 安裝pip工具 4 1.2 虛擬環境Virtualenv 5 1.2.1 Virtualenv的安裝 5 1.2.2 創建虛擬環境 5 1.2.3 啟動虛擬環境 5 1.2.4 創建指定Python版本的虛擬環境 5 1.3 選擇合適的編輯器 6 1.3.1 Vim 6 1.3.2 Atom 6 1.3.3 Sublime Text 6 1.3.4 Notepad++ 6 1.3.5 Pycharm 6 第2章 常用爬蟲庫Requests 2.1 安裝Requests 7 2.1.1 用pip安裝 7 2.1.2 用github源碼安裝 7 2

.1.3 用curl安裝 7 2.2 瞭解 Requests的功能 8 2.2.1 使用GET和POST發送請求 8 2.2.2 通過URL傳遞參數 9 2.2.3 設置超時 9 2.2.4 查看返回內容 9 2.2.5 設置請求頭 10 2.2.6 更多複雜的Post請求 10 2.2.7 返回物件狀態碼 12 2.2.8 設置代理IP 13 2.3 BeautifulSoup的安裝和使用 14 2.3.1 使用pip安裝BeautifulSoup 14 2.3.2 使用BeautifulSoup定位元素 14 2.4 初識自動化測試工具Selenium 15 2.4.1 Selenium安

裝 15 2.4.2 使用Selnium爬取網站 15 2.5 Selenium定位元素 16 2.5.1 通過屬性定位 17 2.5.2 通過xpath定位 17 2.6 Selenium反爬設置 18 2.6.1 設置請求頭 18 2.6.2 設置代理IP 19 第3章 常用爬蟲框架Scrapy 3.1 認識Scrapy 21 3.1.1 Scrapy爬取quotes簡單示例 21 3.1.2 安裝所需依賴包 23 3.1.3 使用虛擬環境 23 3.2 Scrapy shell的使用 24 3.2.1 運行shell 24 3.2.2 使用Scrapy shell爬取Scrapy.org

24 3.2.3 爬蟲調用shell 26 3.3 使用Scrapy爬取quotes 26 3.3.1 創建Scrapy項目並新建爬蟲 27 3.3.2 爬取和提取資料 27 3.3.3 通過腳本運行Scrapy爬蟲 29 3.3.4 在同一進程下運行多個爬蟲 29 3.3.5 簡易的分散式爬蟲思路 30 3.3.6 防止爬蟲被ban 31 3.4 setting基本配置 31 3.5 Pipeline模組 32 3.5.1 爬取文字板塊 32 3.5.2 編寫Pipeline模組 35 3.5.3 通過Pipeline將資料寫入MongoDB資料庫 36 3.5.4 ImagesPipel

ine處理圖片 37 3.5.5 FilePipeline下載檔案 40 3.6 Middleware中介軟體 41 3.6.1 Downloader Middleware 41 3.6.2 隨機請求頭中介軟體 42 3.6.3 更換代理IP中介軟體 45 3.6.4 通過Downloader Middleware使用Selenium 46 3.6.5 Spider Middleware 47 3.7 新功能拓展 48 3.7.1 信號signals 48 3.7.2 自訂拓展 51 第4章 資料存儲——資料庫的選擇 4.1 MySQL資料庫 53 4.1.1 MySQL的安裝 53 4.1.

2 幾款視覺化工具 54 4.1.3 資料庫連接 55 4.1.4 資料庫插入操作 55 4.1.5 資料庫查詢 56 4.1.6 資料庫更新操作 56 4.1.7 爬取寫入資料庫 57 4.2 MongoDB資料庫 58 4.2.1 MongoDB安裝 58 4.2.2 連接資料庫 59 4.2.3 查詢資料庫 59 4.2.4 插入和更新資料庫 59 4.2.5 爬取資料並插入到MongoDB資料庫中 60 4.3 Redis資料庫 60 4.3.1 Redis安裝 60 4.3.2 連接Redis資料庫 61 4.3.3 Python操作Redis資料庫 61 4.3.4 爬取並寫入Re

dis做緩存 62 第5章 效率為王——分散式爬蟲 5.1 什麼是分散式爬蟲 64 5.1.1 分散式爬蟲的效率 64 5.1.2 實現分散式的方法 64 5.2 Celery 65 5.2.1 Celery入門 65 5.2.2 Celery分散式爬蟲 66 5.3 使用Scrapy-redis的分散式爬蟲 67 5.3.1 Scrapy-redis安裝與入門 67 5.3.2 創建Scrapy-redis爬蟲項目 68 第6章 抓包的使用與分析 6.1 利用抓包分析目標網站 72 6.1.1 如何抓包 72 6.1.2 網頁抓包分析 72 6.2 手機APP抓包 74 6.2.1 使用fi

ddler抓包 75 6.2.2 HTTPS證書安裝 75 6.2.3 booking手機端抓包 76 第7章 Websocket通信網站爬取 7.1 什麼是Websocket 79 7.1.1 Websocket-clinet 79 7.1.2 Websocket-clinet簡單入門 79 7.2 使用Websocket爬取財經網站 81 第8章 驗證碼破解 8.1 關於驗證碼 84 8.1.1 一般的驗證碼 84 8.1.2 極驗驗證 84 8.2 極驗滑動驗證破解 85 8.2.1 準備工具 85 8.2.2 分析滑動驗證碼 85 8.2.3 開始破解極限滑動驗證碼 87 8.3 圖片

驗證碼破解 89 8.3.1 準備工具 89 8.3.2 文字圖像識別 89 8.3.3 識別驗證碼 90 第9章 多執行緒與多進程併發爬取 9.1 多執行緒 92 9.1.1 堵塞與非堵塞 92 9.1.2 繼承threading.Thread創建類 96 9.1.3 多執行緒的鎖 98 9.1.4 queue佇列 100 9.1.5 執行緒池 101 9.2 多執行緒爬蟲 103 9.2.1 爬蟲框架 103 9.2.2 編寫爬蟲 104 9.2.3 以多執行緒方式啟動 105 9.3 多進程 107 9.3.1 multiprocessing模組 107 9.3.2 通過Pool進程池創

建進程 108 9.3.3 multiprocessing.Queue佇列 109 9.3.4 multiprocessing.Pipe管道 112 9.3.5 multiprocessing.Lock鎖 113 9.4 多進程爬蟲 114 9.4.1 多進程爬取音訊 114 9.4.2 多進程加多執行緒進行爬取 116 第10章 爬蟲介面優化 10.1 Gunicorn的安裝與使用 119 10.2 Gunicorn配置 121 10.2.1 配置參數 121 10.2.2 通過config檔啟動 123 第11章 使用Docker部署爬蟲 11.1 Docker 125 11.1.1 Do

cker的安裝 125 11.1.2 Docker的鏡像 125 11.1.3 構建自己的Docker鏡像 127 11.1.4 容器使用 127 11.1.5 Dockerfile 129 11.2 爬蟲部署 130 11.2.1 爬蟲介面 130 11.2.2 部署爬蟲介面 131 第二篇 實戰案例 第12章 實戰1:建立代理IP池 12.1 爬取免費代理IP 136 12.1.1 爬取代理IP 136 12.1.2 檢驗代理IP 138 12.2 建立代理IP池 138 12.2.1 檢驗代理IP 138 12.2.2 Redis訊息佇列 140 12.2.3 master爬蟲 142

第13章 實戰2:磁力連結搜索器 13.1 爬取磁力搜索平臺 145 13.1.1 磁力平臺 145 13.1.2 slave爬蟲 146 13.2 實現磁力搜索器 148 13.2.1 展示與交互 148 13.2.2 資料查詢 150 第14章 實戰3:爬蟲管家 14.1 QQ機器人 152 14.1.1 qqbot 152 14.1.2 基本操作 152 14.1.3 實現自己的機器人 153 14.2 爬蟲監控機器人 153 第15章 實戰4:數據視覺化 15.1 視覺化包Pyecharts 156 15.1.1 Pyecharts的安裝 156 15.1.2 地圖展示資料 157

15.2 爬取最低價機票數據 158 15.2.1 破解旅遊網站價格日曆介面 159 15.2.2 爬取旅遊網站 160 15.2.3 將數據視覺化 161 第16章 實戰5:爬取貼吧中的郵箱 16.1 爬取網站 164 16.1.1 爬取高校名單 164 16.1.2 利用規則運算式匹配號碼 165 16.2 分析貼吧搜尋網頁面並提取號碼 165 16.3 使用Scrapy開始編碼 167 16.3.1 創建貼吧Scrapy項目 167 16.3.2 新建爬蟲並編寫爬蟲邏輯 168 16.3.3 資料處理 170 第17章 實戰6:批量爬取企業資訊 17.1 從協力廠商平臺獲取企業名 172

17.2 如何爬取企業詳細資訊 174 第18章 實戰7:爬取公眾號歷史文章 18.1 分析公眾號介面 177 18.1.1 開始抓包 177 18.1.2 分析介面 179 18.1.3 嘗試請求資料 179 18.2 爬取公眾號 180 18.2.1 爬取思路 180 18.2.2 請求介面獲取文章URL 180 18.2.3 解析文章網頁源碼 181 18.2.4 合併代碼 183 第19章 實戰8:高效爬取——非同步爬蟲 19.1 非同步程式設計 186 19.1.1 asyncio庫 186 19.1.2 aiohttp庫 187 19.1.3 訪問多個URL 188 19.2 爬

取圖片 189 19.2.1 為函數命名 189 19.2.2 對網頁進行解析 190 19.2.3 非同步爬取圖片 190 第20章 實戰9:爬取漫畫網站 20.1 爬取單部漫畫 193 20.1.1 單集漫畫的爬取 193 20.1.2 全集漫畫的爬取 195 20.2 爬取漫畫全站 196 第21章 實戰10:給kindle推送爬取的小說 21.1 用Python發送郵件 199 21.1.1 純文字郵件的發送 199 21.1.2 帶附件郵件的發送 200 21.2 爬取小說 201 21.2.1 製作word文檔 201 21.2.2 爬取baka-tsuki.org 202 第22

章 實戰11:爬取遊民星空壁紙 22.1 星空壁紙的爬取準備 205 22.2 爬取壁紙 206 22.2.1 獲取圖片和下一頁位址 206 22.2.2 爬取列表頁 208 22.2.3 爬取高清圖片資源 209 第23章 綜合實戰:建立一個小網站 23.1 Flask框架 210 23.1.1 寫一個簡單的hello word網頁 210 23.1.2 添加html範本 210 23.2 Bootstrap框架 212 23.2.1 使用Bootstrap框架 213 23.2.2 Bootstrap線上範本 213 23.2.3 添加壁紙板塊 215 第24章 綜合實戰:爬取電影網站 2

4.1 理清爬蟲的思路 218 24.2 分步編碼實現爬取 219 24.2.1 爬取詳情頁 219 24.2.2 爬取列表頁 220 24.2.3 爬取首頁 221 24.2.4 寫入資料庫 222 第25章 綜合實戰:建立電影小站 25.1 搭建項目 224 25.1.1 sqlite資料庫 224 25.1.2 創建項目 225 25.1.3 通過藍圖建立電影板塊 226 25.2 建立範本 229 25.2.1 flask-bootstrap 229 25.2.2 電影頁面 231 25.2.3 電影分類 233 25.2.4 電影詳情頁 237 25.2.5 電影搜尋網頁 239 第

26章 綜合實戰:磁力搜索 26.1 磁力搜索 241 26.1.1 如何高效爬取 241 26.1.2 建立Celery任務 244 26.2 Web部分 248 26.2.1 建立模型 248 26.2.2 視圖函數 248 26.2.3 關於產品 251

增強資料特徵之抽象文本分類技術研究

為了解決word免費下載2016的問題,作者劉曄珊 這樣論述:

Arxiv網站是一個集合了物理學、數學、計算機科學、生物學及數理經濟學的論文的網站,此網站是造就出版業中可以開放擷取論文的因素之一,此網站蒐集了數百萬篇學術及技術文章供使用者免費閱讀存取,Arxiv網站從1991年至2022年共收入超過1,987,800篇文章,在2020年的Sci-hub影響力分析中發現,在Sci-hub下載的文章是其他未提供自由下載期刊網站的的1.72倍,這顯示出版物的限制瀏覽也會限制某些科學研究無法充分發揮其影響力。為了快速及準確的在百萬篇文章中搜尋最貼近需求的文本,過去有學者透過摘要文本技術進行各項研究,例如:透過文本分類技術找出關鍵字詞或語句中的詞性來進行標籤分類。

也有學者透過類神經網路進行惡毒評論標籤辨識。然而常見的分類早已無法滿足使用者的需求,因此如何讓機器自動學習摘要文字且準確進行分類,已成為了現今重要的議題。基於上述文本分類的重要性,本研究運用AI CUP 2019:人工智慧論文機器閱讀競賽之論文分類競賽(https://tbrain.trendmicro.com.tw/Competitions/Details/9)所提供的Arxiv的論文摘要資料集,將摘要分成理論類、工程類、實證類及其它等四類。基於現今常見的機器學習分類之效能仍十分有限,因此本研究提出運用詞性還原及特徵增強兩種方法做資料預處理,資料預處理後產生三個資料集進行測試,再使用GloV

e及SCIBERT進行Pre-train後輸入至本研究的分類模型中。本研究使用機器學習及類神經網路模型進行測試,經比較後,選出SVM、GRU和BiGRU三種機器學習模型。實驗結果顯示資料增強的預處理方法適用於GloVe及SCIBERT模型。在GloVe模型中如沒有加強特徵之數據集其分類準確度可達到81.46%,但經過特徵加強後可提升至84.46%。而在SCIBERT模型下,未加強特徵之數據集的F1-score可達到73.11%,經過加強特徵後,數據集中而可提升至75.75%。由本研究之實驗可證明,本研究所提之資料增強方法,可提升文本摘要分類的準確率,而本研究所提的方法與實驗也較過往的AI CU

P比賽成果(F1-Score最高為75.15%),有更好的效能。