Introduction forFidel, R., Mark Pejtersen, A., Cleal, B., & Bruce, H. (2004). A multidimensional approach to the study of human information interaction: A case study of collaborative information retrieval. Journal of the American Society for Information Science and Technology, 55(11), 939-953.
Introduction forFidel, R., Mark Pejtersen, A., Cleal, B., & Bruce, H. (2004). A multidimensional approach to the study of human information interaction: A case study of collaborative information retrieval. Journal of the American Society for Information Science and Technology, 55(11), 939-953.
這份投影片中主要是介紹3D掃描儀與XR擴增實境裝置,並以此將大家帶領到元宇宙的世界。首先,我會從「立體數位化」開始,展示如何使用 REVOPOINT POP3 這款 3D 全彩掃描器,將實體物件轉換為數位模型。我會實際操作示範,讓大家了解掃描的流程與注意事項,並分享這款掃描器的優缺點。
接著,我會進入「XR延展實境」的領域,介紹 Meta Quest 3 這款熱門的擴增實境設備。除了操作展示,也會說明它如何切換 VR、AR 和 XR 模式,以及其成熟的互動介面。我會帶領大家體驗如何利用 Meta Quest 3 檢視 AR 模型,並分享相關的操作技巧。
兩個設備介紹完成後,接著在體驗環節就讓大家親手操作 3D 掃描器,掃描自己的小物,並使用 Meta Quest 3 體驗延展實境的樂趣。
最後,我以「深耕元宇宙」作為結語,分享一些關於元宇宙的應用案例,例如如何利用立體展間設計、生成式 AI 建立 3D 模型,以及如何運用網頁技術開發 XR 應用。我強調了數位化與延展實境結合的潛力,例如能夠將武俠文化帶入元宇宙環境的應用,以及如何利用科技來典藏回憶。希望這次演講能讓大家了解數位化與延展實境的最新技術與應用,並啟發大家在元宇宙中探索更多可能性。
在這份投影片中,我先介紹命名實體識別(Named Entity Recognition, NER)的基本概念,說明其定義、應用領域以及所面臨的挑戰,例如同名、歧義以及多字複合詞等問題。接著,我列舉了常見的命名實體類型,如人名、組織、地點、日期時間等,並展示了 NER 在新聞內容分類、人物關係圖建構以及閱讀輔助等方面的應用。
在工具方面,我介紹了多種 NER 工具,包括僅支援英文的 Stanford NER 和 Illinois Named Entity Recognizer,以及支援多國語言的 GATE 和 spaCy。特別針對中文處理,我著重介紹了中研院 CKIP Lab 的相關資源,包括 CKIP NER 以及 CKIP Transformers 工具,並透過實例說明其如何辨識文字中的命名實體,並標註其類別。
實作部分,我帶領大家進行了兩個實作練習。實作 2-1 著重於新聞文本的命名實體分析,讓大家熟悉 NER 的基本流程,從設定文本列表、準備 NER 工具,到執行 NER 分析並儲存結果。實作 2-2 則進一步挑戰從檔案讀取文本進行 NER 分析,並鼓勵大家思考長詞優先的做法可能帶來的問題。
最後,我還為進階學習者準備了額外挑戰,包括探索 CKIP NER 的辨識極限,以及如何篩選特定類型的 NER 結果。我也同時鼓勵聽眾嘗試使用AI 工具輔助程式碼的撰寫,讓大家的想象力能夠盡情發揮。
我在這份投影片中,主要探討在教學情境下,關於繪圖需求的相關議題,並聚焦於AI繪圖的應用與限制。首先,我點出了大家在尋找教材圖片時常遇到的著作權爭議,以及AI繪圖看似能解決問題,但實際上卻可能產生新的法律與道德挑戰。
我深入解析了生成式AI的著作權問題,強調AI本身並非著作權人,使用AI繪圖並不等同於擁有著作財產權。同時,我也提醒大家務必留意各AI繪圖服務的授權條款,像是DALL-E、Stable Diffusion和Midjourney等,它們在商業使用上的規範各有不同。
接著,我進一步探討了AI繪圖作為教材的適當性。我指出,AI繪圖可能因為難以傳遞正確資訊、錯誤引導閱讀焦點,以及無法精準呈現教學所需的圖形等問題,而不適合直接作為教材使用。我認為,教材的視覺呈現應該以清晰、準確為優先,而非過度花俏或不符教學目標。
在尋求合適的教材圖片時,我介紹了創用CC授權條款(Creative Commons Licenses)以及CC0公眾領域貢獻宣告的概念,鼓勵大家使用這些開放授權的素材。我也分享了許多實用的開放素材庫,像是圖示類的flaticon、icon ninja,剪貼畫類的Pixabay、PublicDomainVectors,以及圖片類的CC0免費圖庫搜尋引擎、Pxhere等。此外,我也介紹了國內外的數位典藏與資料庫,例如臺灣記憶、故宮Open Data,以及JSTOR、Library of Congress Digital Collections等,提供更多元的圖片來源。
最後,我坦言理想與現實之間仍存在差距,即使有這麼多資源,有時還是難以找到完全符合需求的圖片。因此,我將在下一部分探討如何「以AI繪圖圖片」,來解決這個問題。
大型語言模型在工業領域的潛力 - 1. 工業與聊天機器人 / Industry and ChatbotsYung-Ting Chen
?
我在這份投影片先以工業發展的演進點題,由工業1.0的機械化生產,一路進展到工業5.0強調人機協作、資訊化、個人化、智慧化與永續發展。我點出,隨著工業4.0時代儀表板資料的爆炸性成長,傳統的資料呈現方式已難以滿足需求,因此,具備理解、推理和學習能力的智慧認知助理(Intelligent Cognitive Assistants, ICA)應運而生,而大型語言模型(Large Language Models, LLM)正是其核心技術。
接著,在介紹大型語言模型之前,我先回顧了對話機器人(或稱之為聊天機器人)的發展歷史,從1966年最早的ELIZA,到模擬妄想型精神分裂症的PARRY,再到結合上下文知識的JABBERWACKY,以及採用模式比對的A. L. I. C. E.。接著,我介紹了2001年AOL即時通助手SmarterChild,以及蘋果語音助手SIRI,這些都為後來的對話機器人發展奠定了基礎。最後,我提到2020年由OpenAI推出的ChatGPT,以及2023年世界首款聯合檢索增強型對話機器人SUVA,這些都代表了對話式人工智慧技術的重大突破。
然而,這些對話機器人究竟是如何應用在工業領域,我們會在下一份投影片揭曉。
現代研究需要現代手段:用知識管理和AI輕鬆做研究! Part 2 - 南藝大 - 2024.pdfYung-Ting Chen
?
在閱讀部分,我特別強調了「目的性閱讀」的重要性。許多人以為論文需要逐字逐句地從頭讀到尾,但實際上,帶著問題跳讀關鍵部分才能快速掌握精髓。我介紹了 SciSpace、Semantic Scholar 和 NotebookLM 等工具,這些工具能生成文獻摘要、標記重點,甚至讓我們用自然語言直接詢問內容。我也分享了一些可能的挑戰,例如 AI 回答可能不夠精確,提醒大家在使用時要保留批判性。
在寫作部分,我以自己的經驗為例,展示如何用心智圖來規劃論文架構,並透過 ChatGPT 等大型語言模型進行內容生成與修改。我還提供了一些技巧,例如建立專有詞彙表和草擬提問筆記本,以提升 AI 在寫作過程中的準確性與實用性。我也試用了 ChatGPT with Canvas,它的視覺化編輯功能讓文本修改更加直觀,但使用時也要注意可能發生的名詞誤改問題。
最後,我探討了使用生成式 AI 的學術倫理。我認為,研究者應該坦誠揭露 AI 的應用,讓讀者了解研究成果的來源與過程。在我看來,AI 是一雙能讓我們飛得更高的翅膀,但它無法取代我們的思考與判斷。用 AI 輔助研究確實能夠提升效率,而且學習新技術所帶來的成長感也讓人覺得十分充實,但我也提醒自己與大家,要慢下來檢查內容,不要盲從AI給出的建議,仔細確認研究的正確性才是紮實完成研究的康莊大道。
55. 參考文獻 (1/2)
55
● Zhang, L., & Liu, B. (2017). Sentiment Analysis and Opinion
Mining. In C. Sammut & G. I. Webb (Eds.), Encyclopedia of
Machine Learning and Data Mining (pp. 1152–1161).
Springer US.
https://doi.org/10.1007/978-1-4899-7687-1_100512
● Oelke, D., Hao, M., Rohrdantz, C., Keim, D. A., Dayal, U.,
Haug, L., & Janetzko, H. (2009). Visual opinion analysis of
customer feedback data. 2009 IEEE Symposium on Visual
Analytics Science and Technology, 187–194.
https://doi.org/10.1109/VAST.2009.5333919
● Wanner, F., Rohrdantz, C., Mansmann, F., Oelke, D., & Keim,
D. A. (2009). Visual Sentiment Analysis of RSS News Feeds
Featuring the US Presidential Election in 2008. VISSW.
https://kops.uni-konstanz.de/handle/123456789/5946
56. 參考文獻 (2/2)
56
● Heuser, R., Algee-Hewitt, M., & Lockhart, A. (2016).
Mapping the Emotions of London in Fiction, 1700–1900:
A Crowdsourcing Experiment. In Literary Mapping in
the Digital Age (pp. 25–46).
https://doi.org/10.4324/9781315592596-12
● Zhang, J., Kawai, Y., Kumamoto, T., & Tanaka, K. (2009).
A Novel Visualization Method for Distinction of Web
News Sentiment. In G. Vossen, D. D. E. Long, & J. X. Yu
(Eds.), Web Information Systems Engineering—WISE
2009 (pp. 181–194). Springer Berlin Heidelberg.