2023-09-01から1ヶ月間の記事一覧
要約 タイトル: "Always Nice and Confident, Sometimes wrong": Developer's Experiences Engaging Generative AI Chatbots Versus Human-Powered Q&A Platforms 著者: Jiachen Li, Elizabeth Mynatt, Varun Mishra, Jonathan Bell 論文のURL: https://arxi…
要約 タイトル: GPT-Fathom: Benchmarking Large Language Models to Decipher the Evolutionary Path towards GPT-4 and Beyond 著者: Shen Zheng, Yuyu Zhang, Yijie Zhu, Chenguang Xi, Pengyang Gao, Xun Zhou, Kevin Chen-Chuan Chang 論文のURL: https…
タイトル Graph-Toolformer: To Empower LLMs with Graph Reasoning Ability via Prompt Augmented by ChatGPT Authors Jiawei Zhang 論文 https://arxiv.org/pdf/2309.16595.pdf この論文を解説します 専門外の人でも分かるように説明 この論文は、大規模な…
タイトル: How to Catch an AI Liar: Lie Detection in Black-Box LLMs by Asking Unrelated Questions 著者: Lorenzo Pacchiardi, Alex J. Chan, Sören Mindermann, Ilan Moscovitz, Alexa Y. Pan, Yarin Gal, Owain Evans, Jan Brauner https://arxiv.org/…
タイトル: Can LLMs Augment Low-Resource Reading Comprehension Datasets? Opportunities and Challenges 著者: Vinay Samuel, Houda Aynaou, Arijit Ghosh Chowdhury, Karthik Venkat Ramanan, Aman Chadha https://arxiv.org/abs/2309.12426 この論文の…
タイトル: LLM-Grounder: Open-Vocabulary 3D Visual Grounding with Large Language Model as an Agent https://arxiv.org/abs/2309.12311 この論文の説明です。 著者: Jianing Yang, Xuweiyi Chen, Shengyi Qian, Nikhil Madaan, Madhavan Iyengar, David …
タイトル: Generative AI Text Classification using Ensemble LLM Approaches https://arxiv.org/abs/2309.07755 この論文の説明です。 著者: Harika Abburi, Michael Suesserman, Nirmala Pudota, Balaji Veeramani, Edward Bowen, Sanmitra Bhattacharya …
タイトル: Generative AI vs. AGI: The Cognitive Strengths and Weaknesses of Modern LLMs https://arxiv.org/abs/2309.10371 この論文の説明です。 著者: Ben Goertzel 専門外の人でも分かるように概要説明 この論文は、大規模言語モデル(LLM)と呼ばれ…
タイトル: Transformers versus LSTMs for electronic trading https://arxiv.org/pdf/2309.11400.pdf この論文の内容を簡単に説明します。 著者: Paul Bilokon, Yitao Qiu 概要: この研究では、金融の時系列予測において、LSTM(Long Short-Term Memory)と…
タイトル: 「Fictional Worlds, Real Connections: Developing Community Storytelling Social Chatbots through LLMs」 https://arxiv.org/abs/2309.11478 この論文の要約です。 著者: Yuqian Sun, Hanyi Wang, Pok Man Chan, Morteza Tabibi, Yan Zhang, H…
タイトル: 「Generative AI vs. AGI: 現代のLLMの認知的な強みと弱み」 https://arxiv.org/abs/2309.10371 著者: Ben Goertzel 概要: この論文では、2023年半ばのLLM(大規模言語モデル)に関する詳細な考察が行われています。具体的には、ChatGPT, GPT-4, B…
1. im2colの基本 「im2col」は、畳み込み演算を効率的に行うための手法です。具体的には、4次元配列(ミニバッチサイズ、チャンネル数、縦幅、横幅)を行列に変換し、畳み込み演算を行列積の計算として実行します。この変換により、畳み込み演算の処理速度が…
im2colとは? 「im2col」とは、画像の畳み込み演算を効率的に行うための技術の一つです。名前の「im2col」は「image to column」の略で、文字通り画像データを列データに変換することを意味しています。 例えば… 画像が本棚で、フィルターが特定の本を探すた…
LLMのファインチューニングによって課題に合わせた出力をしたいと思いますよね。 できることできないことをまとめました。 https://note.com/npaka/n/nec63c01f7ee8 を参考にさせて頂きました。 LLMのファインチューニングで何ができて、何ができないのか LL…
LightGBMとは LightGBMは、勾配ブースティングを基にしたアルゴリズムで、特徴量の重要性の計算や欠損値の取り扱いを自動的に行い、回帰および分類の問題に適用できるモデルです。LightGBMは、XGBoostを超えると言われる強力な機械学習アルゴリズムの一つで…
全結合型ニューラルネットワーク(Fully Connected Neural Network)とは 簡単に言ってしまうと、普通のニューラルネットワークです。ディープラーニングの勉強をしていると突然出てきますが、1周回って普通のニューラルネットワークです。 ディープラーニ…
プライベートではGoogle Colabばかりで、たまたまターミナルを開いて、ちょっとpythonを使おうとしたらまさかの2系だったので3系に変更します。 状況 @MacBook-Pro ~ % python WARNING: Python 2.7 is not recommended. This version is included in macOS f…
メモリベースとモデルベースの手法は、推薦システムの中で広く使われる2つのアプローチです。以下にその主な違いをまとめました。 メモリベース: データ使用: 既存のユーザー-アイテムの評価データを直接使用してレコメンドします。 計算方法: ユーザー間や…
総務省が発表しているDX時代の企業プライバシーガバナンスガイドブックについてまとめました。 元資料はこちらです。 https://www.soumu.go.jp/main_content/000877678.pdf プライバシーガバナンスのフレームワーク サマリ 1. 目的と背景 Society5.0の実現に…