文章摘要生成器的問題,透過圖書和論文來找解法和答案更準確安心。 我們找到下列線上看、影評和彩蛋懶人包

文章摘要生成器的問題,我們搜遍了碩博士論文和台灣出版的書籍,推薦PierreBourdieu寫的 馬內的象徵革命:藝術場域的誕生 和李金洪的 PyTorch深度學習和圖神經網路(卷2)--開發應用都 可以從中找到所需的評價。

另外網站无需搭建和训练模型,87行代码搞定文章摘要生成 - 量子位也說明:接下来,将按照以上步骤创建属于你自己的摘要生成器。 导入必要的软件库. 从自然语言工具包NLTK中导入停止词(stopwords),安装numpy等依赖库。 from ...

這兩本書分別來自群學 和人民郵電所出版 。

中原大學 電子工程研究所 鍾日龍所指導 修宇宏的 行動衰減通道下用於SC-FDMA/f-OFDM/UFMC系統之雙向決策等化器演算法設計與性能比較 (2021),提出文章摘要生成器關鍵因素是什麼,來自於雙向回授決策等化器、迴旋編碼、濾波正交分頻多工、載波間干擾、符際干擾、單載波分頻多重存取、通用濾波多載波。

而第二篇論文國立臺北科技大學 資訊與財金管理系 王貞淑所指導 王怡芬的 結合技術指標與官網新聞之情感分析預測股價趨勢-以半導體產業為例 (2021),提出因為有 LSTM(長短期記憶模型)、多元迴歸、技術指標、官方網站新聞、情感分析的重點而找出了 文章摘要生成器的解答。

最後網站【新興領域/2023.03焦點】從文本生成到圖像創作再到語音影像則補充:閱讀和寫作:著重於幫助用戶更快速閱讀及撰寫電子郵件和文章,包括進行個人研究,如Notion AI從會議待辦到簡報大綱都能幫你完成、結合AI和寫作編輯器的Lex ...

接下來讓我們看這些論文和書籍都說些什麼吧:

除了文章摘要生成器,大家也想知道這些:

馬內的象徵革命:藝術場域的誕生

為了解決文章摘要生成器的問題,作者PierreBourdieu 這樣論述:

社會理論大師布迪厄 繼《區分》、《藝術的法則》之後 最重要的「文化社會學」、「作品研究」經典   ★書中附有42張馬內及同時期重要畫家的畫作彩圖,使讀者在鑑賞布迪厄的作品分析時,能夠圖文對照   「藝術是沒有理論的純粹實作。」──涂爾幹   十九世紀下半葉,法國藝術圈正湧現一場寧靜革命。官方支持的學院派繪畫遭受各路新興派別挑戰,包括最具代表性的印象派在內。其中,馬內(Édouard Manet)在「落選者沙龍」展出〈草地上的午餐〉,更為這場藝術運動吹響了號角。自此,人們不再期望藝術要承載宗教或歷史等宏大敘事,而是能更追求技巧與形式。自此,世人對於「何謂繪畫」的觀念起了徹底的轉變

。本書作者、知名社會學家布迪厄,將這種認知及實作上的變革,稱為「象徵革命」。   然而,象徵革命並非一蹴可幾,而是需要眾多條件才能達成。本書首先從「場域」的概念切入,探究革命發生的條件。當時,教育擴張導致學位過剩,連帶改變了創作者的人口結構,讓馬內為首的「異端」能吸納更多支持者。於是,原先被官方壟斷的審美標準,開始弱化並鬆動。另一方面,馬內出身上流社會所養成的「慣習」,以及他日後在沙龍、咖啡廳、畫室累積的社會「資本」,也都是他得以擔綱革命先知的條件。而這恰恰展現出象徵革命的弔詭:革命者往往是擁有優勢的人。   以此,透過分析畫作風格、評論家的論述、行動者的階級屬性,布迪厄從法國繪畫的案例,

見證現代藝術如何誕生。   本書由未完成手稿與課程講稿集結而成,課堂上不時穿插對聽眾來函的回應。因此,即便看似是一部未竟之作,本書反倒更能讓我們窺見這名思想家鍛造概念的過程。   佳句摘錄   ▊論象徵革命   .象徵革命[是]可在其秩序上類比於偉大的宗教革命〔…〕;在這世界觀的革命中而來的是我們各自認知和欣賞的範疇。──克里斯多福.夏勒   .這場著名的「象徵革命」,在大約1870年成功地以自由藝術推翻學院藝術。……在這就是象徵革命者:他完全承繼了一個體系,卻以其所擁有的,操縱其為體系所賦予的而回頭來對抗體系。……在自主領域的先進狀態中,也就是場域中,這是革命唯一的形式。──芭絲卡

.卡薩諾娃   .所謂象徵秩序,建立在社會結構與認知結構的符應上,當象徵秩序斷裂,也就意味著人們關於世界的經驗基礎,以及人們認為理所當然的正統之再現跟著斷裂,〈草地上的午餐〉這幅醜聞之作,乃被視為無意識的分析器:這幅畫迫使隱晦與被抑制的事物表現出來(尤其是透過評論「失望」的反應,這和有教養的公眾對於世界與性事的如何再現的看法有關,涉及他們的感知基模與深層的信仰。)   ▊論連續性vs.斷裂   .馬內是在連續性中的斷裂,這是極為重要的:宗教上的斷裂和科學上的重大斷裂,其實都是整合性的斷裂,在斷裂的同時又把斷裂掉的整合進來。   .例如:人們在晚近時期的法國哲學注意到,雖然1950年代是

存在主義極盛的時代,但所有在這之後才逐漸明朗的思潮,也就是1970年代出現的,在1950年代早已存在了,只是還在萌芽或遭壓抑的狀態……單純地區分出連續或不連續,是錯誤的提問。   ▊論(藝術)場域   .這就是場域;其中的行動者擁有差異的、不平等的文學資本的形式,資本的分配結構是不平等的,在場域中有一系列的位置,在不同的位置上,有各自對於文學領域或藝術領域的立場。   .藝術世界如同所有「場域」形式的世界,根植於一個基本信仰,就是幻想(illusio),這樣的信仰主要是必須確定哪些發生在場域中的事是重要的。   .場域從來不是徹底自主的。因為藝術場域持續地依賴著國家、資助……等等。其保

有一種自主性,就是相對於從外部來的事物有一定程度的獨立性……自主的場域有能力折射來自外部的事件,依照其自身的法則對其加以改寫。   .基於場域之間的同源性(homologie)(例如藝術場域和權力場域之間),在一個場域內出現的革命,即使極為特定且受限在該場域,依照著雙效(coup double)的邏輯及場域的同源性,該革命也會從發生革命的場域牽連到其他場域,特別是政治場域。   .對於建立在某種限制額的學院秩序而言,數量的效果是最大的挑戰。超額的生產者以其行動支持革命發動者,尤其是透過異端展覽的組織,瓦解了原本維持學院壟斷的相互強化之信任網絡。這危機正是信任的危機。於是,場域就圍繞著學院端

……以及由畫家學徒與準備成為作家的波希米亞所構成的另一端,在這兩個對立端間漸漸生成。……當藝術家領域不再作為被一個團體控制的階序裝置來運作,投入壟斷藝術正當性這場競爭的場域,就漸漸自我形成。   ▊論馬內的慣習/資本   .馬內表現出來的屬性是同於古猶太教先知一樣的:雖出身於學者階級,他卻有揭發且偏離學院的能耐,使評審團陷入麻煩,不知該把他歸於無能與笨拙,或視他心存惡意想搞顛覆,然而他們看到的卻是欠缺學院的正統性。馬內是法官之子,庫屈賀的學生,怎麼看都是既聰明又有名的,至少在他的同儕中是如此……整個似乎顯示出他維持在布爾喬亞和學院秩序的矛盾性之間。 本書特色   ◆布迪厄為提出文化資本

與場域等聞名概念的學者,其代表作《區分》被國際社會學協會票選為20世紀前六大社會學重要著作。布迪厄發展的概念體系流傳甚廣,在社會學界、人類學界、哲學界、傳播學界、視覺文化研究等領域,都具有高度影響力。   ◆此書堪稱藝術史的翻案之作,不再將馬內歸類於印象派,而是從馬內的出身、人際網絡、畫作風格、與過往時期各畫家的關係等,將馬內定位成自成一格的象徵革命者。   ◆有別於既有的「作品研究」觀點,布迪厄並非單純從外部(如階級位置)定位馬內,也不只從內部(畫作內容)分析,而是融合兩種視角,轉而以場域的概念,主張藝術具有相對自主性,同時剖析馬內離經叛道的慣習,又是如何促成這個新興的場域站穩腳跟。

  ◆對藝術場域的研究可作為對其他場域的研究之示範,因而有助於讀者瞭解在分化複雜的社會之下,各種專業領域如何運作。 各界迴響   「他的作法不是像紀念碑或不可觸及的傑作般地留存。因他的緣故,我們得以穿透到社會學家工作室的深處,在其中,作者站在讀者的一方,並經常在課堂聽寫之前,割開防護的盔甲。」──克里斯多福.夏勒(巴黎第一大學當代史名譽教授)   「有鑑於這課程在作者生命裡的位置,這大綱就成了反身性思考的高潮、革命性沉思的頂峰,整個是為理解一名革命性的藝術家而建置起來,而發明的一種形式,即如在他描述馬內畫作的那種動亂之同時,布迪厄也加入了自己的畫像。」──芭絲卡.卡薩諾娃(文學批評家)

  「雖然布迪厄常被詮釋成社會再生產的理論家,《馬內》卻提出了對於文化變遷的動態解釋,相較於他先前探討文化生產的著作,本書可說是更加成熟。   《馬內》讓我們看見的是成形中的思想家,而不是一名先知。在兩年的課程中,布迪厄坦白承認對於開啟這麼大的研究計畫,他充滿了焦慮即懷疑。對於課堂上他沒時間或不知該如何回答的問題,他也總是念茲在茲。   本書提供的不只是理論的陳述,而是讓我們感知他的人格,以及他的知識實作。」──Ben Merriman(堪薩斯大學公行系助理教授)   「作為歷史研究,《馬內》栩栩如生地展示了關於該年代作者群的大量知識。關於馬內如何在沙龍獲取並鞏固社會資本,此書的描述亦相當

豐富,深入許多細節。   我認為此書的主題應能引起廣大、跨學科的讀者感到興趣。」──Christopher Thorpe(艾希特大學社會學教授)

行動衰減通道下用於SC-FDMA/f-OFDM/UFMC系統之雙向決策等化器演算法設計與性能比較

為了解決文章摘要生成器的問題,作者修宇宏 這樣論述:

5G為提昇傳輸速率,需採用更大的頻寬;除了傳統的次6GHz頻段,28-30GHz毫米波頻段則是5G的另一特色。由於5G毫米波布建成本高,先期用戶數未大幅提昇下,造成本益比太高;故我國先採取次6GHz的技術研製,經過二年的實證,原先毫米波技術的落後,反而成就了掌握次6GHz技術的先發能力。要讓變大的頻寬能處理大量訊號並降低延遲。在此情形下,提供每個子頻帶能讓不同的使用者進行不同的處理並且進行運算的效果就更加符合大量傳輸處理的需求。原先的OFDM技術所擁有的特色若要應用在此環境下,必須達成高效率分割頻譜以及物理層應用的需求;低帶外發射(out-of-band emission, OOBE)以及達

成降低同步的標準就會是主要考慮的重點[1]。前項可以通過降低保護區間大小來達成,如此可以讓子頻帶有多出的空間可以提供給使用者進行其他的服務。第二項可以經由簡化硬體和演算法設計以及收發機流程來達成,這樣可以進一步降低設計成本。符合以上需求又能保持OFDM的多工處理特性,分別有:濾波正交分頻多工(Filter Orthogonal Frequency Division Multiplexing, f-OFDM)、通用濾波多載波(Universal Filtered Multi-carrier, UFMC)這四種調變方式來產生符合條件的波型並傳送[2][3][4]。考慮到由OFDM變化而來的調變方法

有其優點及缺點。OFDM訊號在多路徑通道下的運算會因為符元間干擾(Inter Symbol Interference, ISI)以及物體行動產生的都卜勒效應導致載波間干擾問題(Inter Carrier Interference, ICI),從而影響接收訊號品質降低。ISI可以用循環字首(Cyclic Prefix, CP)技術去降低其干擾,而ICI所造成的正交性破壞在本論文中則採用雙向回授決策等化器(Bidirectional Decision-Feedback Equalizer, BD-DFE)來解決[5]。本論文波形產生使用f-OFDM、UFMC、OFDM以及單載波分頻多重存取(Sin

gle-Carrier Frequency Division Multiple Access, SC-FDMA)系統來分別作為傳送端波形生成系統,並模擬多路徑通道加上通道衰減情形,最後結合迴旋編碼來提升系統接收機的效能[6]。最後經過電腦大量模擬,觀察其在誤碼率(Bit Error Rate, BER)以及頻譜間的表現。頻譜使用率的提升可從實驗結果看出f-OFDM以及UFMC的表現都優於傳統OFDM以及SC-FDMA。

PyTorch深度學習和圖神經網路(卷2)--開發應用

為了解決文章摘要生成器的問題,作者李金洪 這樣論述:

本書通過深度學習實例,從可解釋性角度出發,闡述深度學習的原理,並將圖神經網路與深度學習結合,介紹圖神經網路的實現技術。本書分為6章,主要內容包括:圖片分類模型、機器視覺的 應用、自然語言處理的相關應用、神經網路的可解釋性、識別未知分類的方法——零次學習、異構圖神經網路。本書中的實例是在PyTorch框架上完成的,具有較高的實用價值。 本書適合人工智慧從業者、程式師進階學習,也適合作為大專院校相關專業師生的教學和學習用書,以及培訓學校的教材。 李金洪 精通C、Python、Java語言,擅長神經網路、算法、協定分析、移動互聯網安全架構等技術,先後擔任過CAD算法工程師、架構

師、專案經理、部門經理等職位。參與過深度學習領域某移動互聯網後臺的OCR項目,某娛樂節目機器人的語音辨識、聲紋識別專案,金融領域的若干分類專案。 第1章 圖片分類模型 1 1.1 深度神經網路起源 2 1.2 Inception系列模型 2 1.2.1 多分支結構 2 1.2.2 全域均值池化 3 1.2.3 Inception V1模型 3 1.2.4 Inception V2模型 4 1.2.5 Inception V3模型 5 1.2.6 Inception V4模型 6 1.2.7 Inception-ResNet V2模型 6 1.3 ResNet模型 6 1.3

.1 殘差連接的結構 7 1.3.2 殘差連接的原理 8 1.4 DenseNet模型 8 1.4.1 DenseNet模型的網路結構 8 1.4.2 DenseNet模型的特點 9 1.4.3 稠密塊 9 1.5 PNASNet模型 9 1.5.1 組卷積 10 1.5.2 深度可分離卷積 11 1.5.3 空洞卷積 12 1.6 EfficientNet模型 14 1.6.1 MBConv卷積塊 15 1.6.2 DropConnect層 16 1.7 實例:使用預訓練模型識別圖片內容 16 1.7.1 瞭解torchvision庫中的預訓練模型 16 1.7.2 代碼實現:下載並載入預訓

練模型 17 1.7.3 代碼實現:載入標籤並對輸入資料進行預處理 18 1.7.4 代碼實現:使用模型進行預測 19 1.7.5 代碼實現:預測結果視覺化 20 1.8 實例:使用遷移學習識別多種鳥類 21 1.8.1 什麼是遷移學習 21 1.8.2 樣本介紹:鳥類資料集CUB-200 22 1.8.3 代碼實現:用torch.utils.data介面封裝資料集 22 1.8.4 代碼實現:獲取並改造ResNet模型 27 1.8.5 代碼實現:微調模型 一層 28 1.8.6 代碼實現:使用退化學習率對 模型進行全域微調 29 1.8.7 擴展實例:使用亂數據增強方法訓練模型 30 1.

8.8 擴展:分類模型中常用的3種損失函數 31 1.8.9 擴展實例:樣本均衡 31 1.9 從深度卷積模型中提取視覺特徵 33 1.9.1 使用鉤子函數的方式提取視覺特徵 33 1.9.2 使用重組結構的方式提取視覺特徵 34 第2章 機器視覺的 應用 37 2.1 基於圖片內容的處理任務 38 2.1.1 目標檢測任務 38 2.1.2 圖片分割任務 38 2.1.3 非極大值抑制演算法 39 2.1.4 Mask R-CNN模型 39 2.2 實例:使用Mask R-CNN模型進行目標檢測與語義分割 41 2.2.1 代碼實現:瞭解PyTorch中目標檢測的內置模型 41 2.2.2

 代碼實現:使用PyTorch中目標檢測的內置模型 42 2.2.3 擴展實例:使用內置的預訓練模型進行語義分割 43 2.3 基於視頻內容的處理任務 47 2.4 實例:用GaitSet模型分析人走路的姿態,並進行身份識別 47 2.4.1 步態識別的做法和思路 47 2.4.2 GaitSet模型 48 2.4.3 多層全流程管線 50 2.4.4 水準金字塔池化 51 2.4.5 三元損失 52 2.4.6 樣本介紹:CASIA-B資料集 53 2.4.7 代碼實現:用torch.utils.data介面封裝資料集 54 2.4.8 代碼實現:用torch.utils.data.samp

ler類創建含多標籤批次數據的採樣器 60 2.4.9 代碼實現:搭建 GaitSet模型 64 2.4.10 代碼實現:自訂三元損失類 67 2.4.11 代碼實現:訓練模型並保存模型權重檔 69 2.4.12 代碼實現:測試模型 72 2.4.13 擴展實例:用深度卷積和 池化 優化模型 77 2.4.14 擴展實例:視頻採樣並提取 輪廓 78 2.4.15 步態識別模型的局限性 79 2.5 調試技巧 79 2.5.1 解決顯存過滿損失值為0問題 80 2.5.2 跟蹤PyTorch顯存並查找顯存洩露點 81 第3章 自然語言處理的相關應用 83 3.1 BERT模型與NLP任務的發展

階段 84 3.1.1 基礎的神經網路階段 84 3.1.2 BERTology階段 84 3.2 NLP中的常見任務 84 3.2.1 基於文章處理的任務 85 3.2.2 基於句子處理的任務 85 3.2.3 基於句子中詞的處理任務 86 3.3 實例:訓練中文詞向量 87 3.3.1 CBOW和Skip-Gram模型 87 3.3.2 代碼實現:樣本預處理並生成字典 88 3.3.3 代碼實現:按照Skip-Gram模型的規則製作資料集 90 3.3.4 代碼實現:搭建模型並進行 訓練 92 3.3.5 夾角余弦 95 3.3.6 代碼實現:詞嵌入視覺化 96 3.3.7 詞向量的應用 

97 3.4 常用文本處理工具 98 3.4.1 spaCy庫的介紹和安裝 98 3.4.2 與PyTorch深度結合的文本 處理庫torchtext 99 3.4.3 torchtext庫及其內置資料集與 調用庫的安裝 99 3.4.4 torchtext庫中的內置預訓練詞 向量 100 3.5 實例:用TextCNN模型分析評論者是否滿意 100 3.5.1 瞭解用於文本分類的卷積神經網路模型——TextCNN 101 3.5.2 樣本介紹:瞭解電影評論 資料集IMDB 102 3.5.3 代碼實現:引入基礎庫 102 3.5.4 代碼實現:用torchtext載入 IMDB並拆分為資料集

 103 3.5.5 代碼實現:載入預訓練詞向量並進行樣本資料轉化 105 3.5.6 代碼實現:定義帶有Mish啟動 函數的TextCNN模型 107 3.5.7 代碼實現:用資料集參數產生實體 模型 109 3.5.8 代碼實現:用預訓練詞向量 初始化模型 109 3.5.9 代碼實現:用Ranger優化器訓練模型 109 3.5.10 代碼實現:使用模型進行預測 112 3.6 瞭解Transformers庫 113 3.6.1 Transformers庫的定義 113 3.6.2 Transformers庫的安裝方法 114 3.6.3 查看Transformers庫的版本資訊 115

3.6.4 Transformers庫的3層應用 結構 115 3.7 實例: 使用Transformers庫的管道方式完成多種NLP任務 116 3.7.1 在管道方式中 NLP任務 116 3.7.2 代碼實現:完成文本分類任務 117 3.7.3 代碼實現:完成特徵提取任務 119 3.7.4 代碼實現:完成完形填空任務 120 3.7.5 代碼實現:完成閱讀理解任務 121 3.7.6 代碼實現:完成摘要生成任務 123 3.7.7 預訓練模型檔的組成及其載入時的固定檔案名稱 124 3.7.8 代碼實現:完成實體詞識別任務 124 3.7.9 管道方式的工作原理 125 3.7.1

0 在管道方式中載入 模型 127 3.8 Transformers庫中的AutoModel類 128 3.8.1 各種AutoModel類 128 3.8.2 AutoModel類的模型載入機制 129 3.8.3 Transformers庫中 多的預訓練 模型 130 3.9 Transformers庫中的BERTology系列模型 131 3.9.1 Transformers庫的檔結構 131 3.9.2 查找Transformers庫中可以使用的模型 135 3.9.3 實例:用BERT模型實現完形填空任務 136 3.9.4 擴展實例:用 AutoModelWithMHead類 替換

BertForMaskedLM類 138 3.10 Transformers庫中的詞表工具 139 3.10.1 PreTrainedTokenizer類中的 特殊詞 139 3.10.2 PreTrainedTokenizer類的 特殊詞使用 140 3.10.3 向PreTrainedTokenizer類中 添加詞 144 3.10.4 實例:用手動載入GPT-2模型 權重的方式將句子補充完整 145 3.10.5 子詞的拆分 148 3.11 BERTology系列模型 149 3.11.1 Transformer之前的主流模型 149 3.11.2 Transformer模型 151

3.11.3 BERT模型 153 3.11.4 GPT-2模型 157 3.11.5 Transformer-XL模型 157 3.11.6 XLNet模型 158 3.11.7 XLNet模型與AE模型和AR 模型間的關係 161 3.11.8 RoBERTa模型 161 3.11.9 SpanBERT模型 162 3.11.10 ELECTRA模型 162 3.11.11 T5模型 163 3.11.12 ALBERT模型 164 3.11.13 DistillBERT模型與知識蒸餾 166 3.12 實例: 用遷移學習訓練BERT模型來對中文分類 167 3.12.1 樣本介紹 167

3.12.2 代碼實現:構建資料集 168 3.12.3 代碼實現:構建並載入BERT預訓練模型 169 3.12.4 BERT模型類的內部邏輯 170 3.12.5 代碼實現:用退化學習率訓練模型 172 3.12.6 擴展: 多的中文預訓練模型 175 3.13 實例:用R-GCN模型理解文本中的代詞 175 3.13.1 代詞資料集 175 3.13.2 R-GCN模型的原理與實現 176 3.13.3 將GAP資料集轉化成圖結構資料的思路 179 3.13.4 代碼實現:用BERT模型提取代詞特徵 181 3.13.5 代碼實現:用BERT模型提取 其他詞特徵 183 3.13.6 

用spaCy工具對句子依存 分析 185 3.13.7 代碼實現:使用spaCy和批次 圖方法構建圖資料集 187 3.13.8 代碼實現:搭建多層R-GCN 模型 192 3.13.9 代碼實現:搭建神經網路 分類層 193 3.13.10 使用 交叉驗證方法訓練 模型 196 第4章 神經網路的可解釋性 197 4.1 瞭解模型解釋庫 198 4.1.1 瞭解Captum工具 198 4.1.2 視覺化可解釋性工具Captum Insights 198 4.2 實例:用可解釋性理解數值分析神經網路模型 199 4.2.1 代碼實現:載入模型 199 4.2.2 代碼實現:用梯度積分演算法

分析模型的敏感屬性 200 4.2.3 代碼實現:用Layer Conductance方法查看單個網路層中的神經元 202 4.2.4 代碼實現:用Neuron Conductance方法查看每個神經元所關注的屬性 204 4.3 實例:用可解釋性理解NLP相關的神經網路模型 205 4.3.1 詞嵌入模型的可解釋性方法 205 4.3.2 代碼實現:載入模型類並將其處理 過程拆開 206 4.3.3 代碼實現:產生實體並載入模型權重,提取模型的詞嵌入層 207 4.3.4 代碼實現:用梯度積分演算法計算模型的可解釋性 208 4.3.5 代碼實現:輸出模型可解釋性的視覺化圖像 210 4.4

 實例:用Bertviz工視覺化BERT模型權重 211 4.4.1 什麼是Bertviz工具 212 4.4.2 代碼實現:載入BERT模型並視覺化其權重 212 4.4.3 解讀BERT模型的權重視覺化結果 216 4.5 實例:用可解釋性理解影像處理相關的神經網路模型 219 4.5.1 代碼實現:載入模型並進行圖像分類 219 4.5.2 代碼實現:用4種可解釋性演算法對模型進行可解釋性計算 220 4.5.3 代碼實現:視覺化模型的4種可解釋性演算法結果 221 4.6 實例:用可解釋性理解圖片分類相關的神經網路模型 222 4.6.1 瞭解Grad-CAM方法 223 4.6.2 

代碼實現:載入ResNet18模型並註冊鉤子函數提取特徵資料 225 4.6.3 代碼實現:調用模型提取中間層特徵資料和輸出層權重 226 4.6.4 代碼實現:視覺化模型的識別區域 227   第5章 識別未知分類的方法——零次 學習 229 5.1 瞭解零次學習 230 5.1.1 零次學習的思想與原理 230 5.1.2 與零次學習有關的常用資料集 232 5.1.3 零次學習的基本做法 233 5.1.4 直推式學習 233 5.1.5 泛化的零次學習任務 233 5.2 零次學習中的常見問題 233 5.2.1 領域漂移問題 234 5.2.2 原型稀疏性問題 235 5.2.3 

語義間隔問題 235 5.3 帶有視覺結構約束的VSC模型 236 5.3.1 分類模型中視覺特徵的本質 236 5.3.2 VSC模型的原理 237 5.3.3 基於視覺中心點學習的約束方法 238 5.3.4 基於倒角距離的視覺結構約束方法 239 5.3.5 什麼是對稱的倒角距離 239 5.3.6 基於二分匹配的視覺結構約束方法 239 5.3.7 什麼是指派問題與耦合矩陣 240 5.3.8 基於W距離的視覺結構約束方法 240 5.3.9 什麼是 傳輸 241 5.3.10 什麼是 傳輸中的熵 正則化 242 5.4 詳解Sinkhorn 演算法 244 5.4.1 Sinkhor

n演算法的求解轉換 244 5.4.2 Sinkhorn演算法的原理 245 5.4.3 Sinkhorn演算法中參數ε的 原理 246 5.4.4 舉例Sinkhorn演算法過程 246 5.4.5 Sinkhorn演算法中的品質守恆 248 5.4.6 Sinkhorn演算法的代碼實現 250 5.5 實例:使用VSC模型來識別未知類別的鳥類圖片 252 5.5.1 樣本介紹:用於ZSL任務的鳥類資料集 252 5.5.2 代碼實現:用遷移學習的方式獲得 訓練資料集分類模型 253 5.5.3 使用分類模型提取圖片視覺 特徵 254 5.5.4 代碼實現:用多層圖卷積神經 網路實現VSC模

型 255 5.5.5 代碼實現:基於W距離的損失 函數 256 5.5.6 載入資料並進行訓練 257 5.5.7 代碼實現:根據特徵距離對圖片 進行分類 258 5.6 針對零次學習的性能分析 259 5.6.1 分析視覺特徵的品質 259 5.6.2 分析直推式學習的效果 260 5.6.3 分析直推模型的能力 261 5.6.4 分析未知類別的聚類效果 262 5.6.5 清洗測試集 263 5.6.6 利用視覺化方法進行輔助分析 264 第6章 異構圖神經網路 267 6.1 異構圖的基礎知識 268 6.1.1 同構圖與異構圖 268 6.1.2 什麼是異構圖神經網路 268 6

.1.3 二分圖 268 6.1.4 局部圖卷積 270 6.2 二分圖的實現方式 270 6.2.1 用NetworkX實現二分圖 270 6.2.2 使用DGL構建二分圖 272 6.2.3 二分圖物件的調試技巧 275 6.3 異構圖的實現方式 276 6.3.1 創建異構圖 276 6.3.2 設置異構圖的節點個數 277 6.3.3 異構圖結構的查看方式 278 6.3.4 異構圖與同構圖的相互轉化 280 6.3.5 異構圖與同構圖的屬性操作方式 281 6.4 隨機行走採樣 282 6.4.1 什麼是隨機行走 283 6.4.2 普通隨機行走 283 6.4.3 帶停止概率的隨機

行走 284 6.4.4 帶路徑概率的隨機行走 284 6.4.5 基於原圖的隨機行走 285 6.4.6 在基於異構圖的隨機行走中設置停止概率 286 6.4.7 基於隨機行走採樣的資料處理 287 6.4.8 以隨機行走的方式對鄰居節點採樣 287 6.5 DGL庫中的塊圖結構 289 6.5.1 設計塊圖的動機 289 6.5.2 將同構圖轉化成塊圖 290 6.5.3 塊圖的屬性操作 290 6.5.4 將二分圖轉化成塊圖 291 6.6 實例:使用PinSAGE模型搭建 系統 292 6.6.1 準備MoiveLens資料集 292 6.6.2 代碼實現:用Panadas庫載入數據 

293 6.6.3 Categories與category 類型 294 6.6.4 代碼實現:生成異構圖 295 6.6.5 代碼實現:用邊分組方法拆分並保存資料集 296 6.6.6 PinSAGE模型 299 6.6.7 代碼實現:構建帶有鄰居節點採樣功能的資料載入器 300 6.6.8 代碼實現:PinSAGE模型的採樣 過程 305 6.6.9 代碼實現:搭建PinSAGE模型 309 6.6.10 代碼實現:產生實體PinSAGE模型類並進行訓練 315 6.6.11 代碼實現:用PinSAGE模型為 使用者 電影 315 6.6.12 擴展:在PinSAGE模型中融合 多的特徵資

料 317 6.7 總結 317

結合技術指標與官網新聞之情感分析預測股價趨勢-以半導體產業為例

為了解決文章摘要生成器的問題,作者王怡芬 這樣論述:

2020年COVID-19爆發,伴隨全球經濟下滑,在不景氣情況下,縱身投入股市的投資者卻不在少數,根據證交所(2021)統計近半年內新開戶人數就有近四十一萬人。近年來,半導體產業進步快速,在股市交易中也受到高度關注,行政院更將半導體發展納入未來國家政策發展考量之一,可見半導體產業對我國股市經濟與政策發展的重要性。本研究透過相關股價資訊與統整過往文獻中多數研究使用的技術指標,以上市半導體類股為標的,建立多元迴歸分析與LSTM股價漲跌預測模型。然而,不論是網絡謠言、公司澄清公告或新聞不實報導,任何消息面資訊皆可能影響股價漲跌,即財經新聞等文本信息可通過影響投資者情緒而導致投資者行為和決策,最終對

股市波動產生影響。據此,本研究以公司官網發佈具可信度與真實性之新聞,進行文字探勘與情感分析,探討僅參考技術指標與加入官網新聞情感分數為特徵值後,對於股價漲跌趨勢預測的影響。整體而言,不論是在整體平均彙整結果,或針對上中下游產業分析結果,LSTM模型皆較多元迴歸更有效地預測股價漲跌趨勢,且不論加入技術指標或官網新聞情感分數作為特徵值,皆有助於提升模型正確率。在結合官網新聞情感分數後,模型的RMSE與MAE大幅降低,而判定係數(R²)與正確率(Accuracy)也明顯提升,其中正確率最高的是長週期(24日)技術指標結合官網新聞情感分數之LSTM模型,正確率最高為80.21%,相較僅以技術指標為特徵

值,增加近10%準確率,而加入官網新聞情感分數為特徵值,增加近6%準確率。上中下游分析結果中,長週期(24日)技術指標結合官網新聞情感分數之上游與中游LSTM,正確率為80.39%、81.18%最高。而在三個實驗中,長週期(24日)皆較短週期(6日)正確率來得高,代表天數區間拉得愈長,愈能夠精準預測股價漲跌趨勢。由實驗結果顯示,本研究所提出的技術指標對半導體類股股價漲跌的確具有預測能力;而將官網新聞情感分數結合上述指標,可有效提升股價漲跌預測準確率,尤其對於預測長週期(24日)半導體上游與中游產業的預測效果最佳。故參考官方網站新聞資訊確實有助於投資者在投資股市時,揭露更多股價資訊。