株式会社ずんだもん技術室AI放送局

By: 株式会社ずんだもん技術室AI放送局
  • Summary

  • AIやテクノロジーのトレンドを届けるPodcast。平日毎朝6時配信。朝の通勤時間や支度中に情報キャッチアップとして聞いてほしいのだ。
    Show More Show Less
activate_samplebutton_t1
Episodes
  • 株式会社ずんだもん技術室AI放送局 podcast 20240930
    Sep 29 2024
    関連リンク OpenAI considering restructuring to for-profit, CTO Mira Murati and two top research execs depart OpenAIは、営利企業への再編を検討していることが明らかになりました。これは、CTOのミラ・ムラティ氏をはじめ、最高研究責任者(CRO)のボブ・マクグロウ氏、研究担当副社長のバレット・ゾフ氏といった主要な人物が相次いで退社したことを受けてのことです。 再編により、投資家にとってより分かりやすく、従業員がより容易に利益を得られる構造になると期待されています。ただし、非営利部門は別組織として存続する予定です。 OpenAIは、2022年末のChatGPTのリリース以降、急成長を遂げ、企業価値は1,500億ドルを超えるとの評価を得ています。しかし、その一方で、急速な成長に伴うリスクや、従業員や経営陣の不安定化といった課題も抱えています。 今回の再編は、これらの課題に対処し、OpenAIの持続的な成長を確保するための試みと考えられます。特に、優秀な人材の流出を防ぎ、今後の研究開発を推進していくことが重要となるでしょう。 今回の動きは、AI分野における競争が激化する中で、OpenAIがどのように対応していくのかを示す重要な出来事と言えます。今後、OpenAIがどのような方向に進み、AI技術の開発と社会実装にどのような影響を与えるのか、注目が集まります。 新人エンジニアの皆さんにとって、OpenAIはAI分野における最先端の技術開発を牽引する企業の一つです。今回の再編や人材の変動は、AI業界全体に大きな影響を与える可能性があります。常に最新の情報に目を向け、今後の動向を注視していくことが重要です。 引用元: https://www.cnbc.com/amp/2024/09/25/openai-cto-mira-murati-announces-shes-leaving-the-company.html RAG-LLMシステムへのユーザークエリは4つのレベルに分類できる 最も複雑なのは「隠れた根拠からの推論が必要なクエリ」Microsoftによる研究 AIDB この記事では、Microsoftの研究者が行った、大規模言語モデル(LLM)を外部情報で強化する際に必要となる質問に関する調査結果について解説しています。 LLM単体では、特定の分野や最新情報への対応が難しい場合があり、外部データの活用が重要になります。外部データを用いることで、事実と異なる情報を生成してしまう「ハルシネーション」の抑制にも繋がります。 外部データ活用には、検索拡張生成(RAG)やファインチューニングといった手法がありますが、それぞれに課題も存在します。特に、専門性の高い分野や複雑な推論を必要とする質問に対しては、適切なデータ選択やLLMの活用方法が重要になります。 そこでMicrosoftの研究チームは、ユーザーからの質問を4つの難易度レベルに分類し、それぞれに適した解決策を提案しています。 質問の4つのレベル 単純な事実確認: 最も簡単なレベルで、直接的な答えが得られる質問です。複数の事実の組み合わせ: 複数の情報を組み合わせる必要がある質問です。推論と解釈: ある程度の推論や解釈が必要な質問です。隠れた根拠からの推論: 最も複雑なレベルで、質問の意図を理解し、関連する情報を推測して回答する必要がある質問です。 LLMの能力を最大限に引き出すには、質問のレベルを理解し、適切なデータや手法を選択することが重要になります。この記事では、これらのポイントを踏まえて、LLMと外部データの連携をより効果的に活用する方法について解説しています。 新人エンジニアの皆さんにとって、LLMは非常に興味深く、かつ活用範囲が広い技術です。しかし、その潜在能力を最大限に引き出すためには、適切な知識と理解が必要です。この記事で紹介されているMicrosoftの研究成果は、LLMと外部データの連携に関する理解を深める上で、非常に有益な情報となるでしょう。ぜひ参考にして、LLMの活用を検討してみてください。 引用元: https://ai-data-base.com/archives/76241 AMD Unveils Its First Small Language Model AMD-135M AMDは、新たに開発した小型言語モデル(SLM)「AMD-135M」を発表しました。これは、AMD Instinct™ MI250アクセラレータを用いてゼロから学習された、Llamaファミリー初のSLMです。AMD-135Mは、一般的なデータ6700億トークンで学習された「AMD-Llama-135M」と、さらにコードデータ200...
    Show More Show Less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20240927
    Sep 26 2024
    関連リンク How Replit is pushing the frontier for monitoring complex AI agents with LangSmith Replitは、3000万人以上の開発者がコードの作成、実行、共同作業を簡単にできるプラットフォームを提供し、AIイノベーションの最前線に立っています。最近リリースされたReplit Agentは、その使いやすさから瞬く間に人気となり、様々な用途で利用されています。 Replit Agentは、LangGraphと呼ばれる複雑なワークフローを基盤としており、高度なカスタマイズと並列実行を可能にしています。LangGraphはLangSmithとシームレスに連携し、エージェントの動作を詳細に可視化することで、問題のデバッグを容易にします。 Replit Agentの複雑さにより、LangSmithにも新たな課題が突きつけられました。LangChainとReplitのチームは協力し、LLMの可視化ニーズに対応するため、LangSmithに以下の3つの機能を追加しました。 大規模なトレースのパフォーマンスとスケーラビリティの向上: LangSmithは、LLMアプリケーション全体の処理フローをトレースすることで、包括的なコンテキストを提供します。Replit Agentは、コードのレビューや作成だけでなく、プランニング、開発環境の作成、依存関係のインストール、アプリケーションのデプロイなど、幅広い機能を実行するため、非常に大規模なトレースを生成します。LangChainチームは、大量のトレースデータを効率的に処理・保存し、可視化するための機能を強化しました。トレース内検索とフィルタリング: LangSmithは従来、多数のトレースの中から特定のトレースを検索する機能を提供していました。しかし、Replit Agentのトレースが長くなるにつれて、特定のイベントをトレース内から検索する必要性が高まりました。そこで、トレース内検索機能が追加され、入力や出力のキーワードなど、特定の条件に基づいてトレース内のイベントをフィルタリングできるようになりました。スレッドビューによるヒューマンインザループワークフローの有効化: Replit Agentは、AIエージェントと人間の開発者が効果的に連携できるツールを目指しており、人間の開発者がエージェントの動作を編集・修正できるように設計されています。LangSmithのスレッドビューは、複数のスレッドから生成されたトレースを関連付け、マルチターン会話におけるエージェントとユーザーのやり取りを論理的に表示します。これにより、ユーザーが困っている箇所や、人間の介入が有益な箇所を特定しやすくなりました。 ReplitはLangSmithの強力な可視化機能を活用することで、AIエージェントのモニタリングにおいて新たな地平を切り開いています。大規模なトレースの読み込みを高速化することで、複雑なエージェントの構築とスケーリングを加速させています。より迅速なデバッグ、トレースの可視化の向上、並列タスクの効率的な処理により、AI駆動開発の新たな基準を確立しています。 引用元: https://blog.langchain.dev/customers-replit/ Molmo by Ai2 Molmoは、Allen Institute for Artificial Intelligence(Ai2)によって開発された、マルチモーダルなオープン言語モデルです。簡単に言うと、画像とテキストの両方を理解し、それらに基づいて質問に答えたり、情報を生成したりできるAIシステムです。 Molmoの主な特徴としては、以下の点が挙げられます。 画像とテキストの両方を入力として受け付ける: 写真や画像をアップロードしたり、テキストで質問したりすることで、Molmoと対話できます。自然言語処理能力: 人間の言語を理解し、それに応答する能力に優れています。マルチモーダルな理解: 画像とテキストを組み合わせて理解することで、より深いレベルでの情報処理が可能です。 Molmoを利用する上での注意点としては、まだ開発中のシステムであり、完璧な回答が得られない場合もある点です。また、入力データの質によって出力結果も変化するため、適切な情報を与えることが重要です。 Molmoは、画像認識や自然言語処理といった分野における研究開発を促進する可能性を秘めています。将来的には、様々なアプリケーションに活用され、私たちの生活をより便利で豊かなものにしてくれることが期待されます。 引用元: https://molmo.allenai.org/ ...
    Show More Show Less
    Less than 1 minute
  • 株式会社ずんだもん技術室AI放送局 podcast 20240926
    Sep 25 2024
    関連リンク Introducing Assistant Editor for configuring agents in LangGraph Studio LangChainのLangGraph Studioに、エージェントの設定を容易にする新しい機能「Assistant Editor」が追加されました。このビジュアルエディタにより、開発者だけでなく、コードに詳しくないユーザーでも、LLMベースのエージェントの動作を微調整できるようになります。 Assistantとは? Assistantは、LangGraphにおけるグラフのインスタンスで、特定の設定が適用されています。これにより、グラフの根本的なロジックを変更せずに、エージェントの動作を迅速に変更できます。特に、実験やコードを書かずにエージェントをカスタマイズする際に便利です。同じグラフ構造を持つAssistantであっても、プロンプト、モデル、その他の設定オプションが異なる場合があります。 Assistant Editorとは? Assistant Editorは、LangGraph Studioに搭載された、Assistantの作成と変更のためのビジュアルインターフェースです。 直感的な設定: ユーザーフレンドリーなインターフェースを通じて、プロンプトの調整、異なる言語モデルの選択、その他のグラフパラメータの変更が簡単に行えます。リアルタイムプレビュー: Studio内で異なるAssistant設定を選択して実行し、設定を試すことができます。バージョン管理: Assistant設定の異なるバージョンを保存および追跡し、パフォーマンスの比較や変更の復元を容易にします。共同作業: チームメンバーとAssistant設定を共有し、レビューと反復を容易にします。 誰がどのように恩恵を受けるか? 開発者/エンジニアチーム: Assistant Editorは、プロンプト、モデル、パラメータの迅速な変更とテストを可能にし、実験とプロトタイピングを効率化します。バージョン管理システムにより、変更の追跡や異なる設定の比較を行い、エージェント設定の進化をチーム全体で把握し、パフォーマンスの微調整に役立ちます。ビジネスユーザー: ビジュアルインターフェースで直接エージェントの動作をカスタマイズし、特定のユースケースやユーザーニーズに合わせることができます。プロンプトや設定を反復処理する機能により、ビジネスチームとエンジニアリングチームのニーズのギャップを解消し、コラボレーションを促進することで、エージェントのやり取りを改善するプロセスを加速します。 Assistant Editorを使うには? LangGraph Studioを最新バージョンに更新し、プロジェクトを開いて、「Assistants」ドロップダウンから新しいAssistantを作成するか、既存のAssistantを選択して編集します。 今後の展望 Assistant Editorは、エージェント開発をよりアクセスしやすく、効率的にするための取り組みの始まりに過ぎません。LangGraph Studioを、LangGraph Cloudに展開されたエージェントと対話するための完全なGUIにすることを目指しています。APIのすべてのエンドポイントをStudioから使用できるようにすることで、より多くの人がエージェントの開発と管理を行うことができるようになります。 LangGraph StudioのAssistant Editorで、エージェントの設定をビジュアルに行いましょう。 引用元: https://blog.langchain.dev/asssistant-editor/ Vision use cases with Llama 3.2 11B and 90B models from Meta Amazon Web Services Amazon Web Services (AWS)は、Metaの最新の大規模言語モデル(LLM)であるLlama 3.2の11Bパラメータと90Bパラメータのモデルを、SageMaker JumpStartとAmazon Bedrockで利用可能にしたことを発表しました。 Llama 3.2は、画像認識機能を備えた初のLlamaモデルであり、テキストだけでなく画像を理解して処理することができます。これにより、ドキュメントの画像からの質問応答、画像からの構造化情報の抽出、画像のキャプション生成など、幅広いビジョンベースのユースケースに対応できるようになりました。 Llama 3.2の主な特徴 マルチモーダル: テキストと画像の両方を処理可能効率性: 処理速度が向上し、レイテンシが削減多言語対応: 英語、ドイツ語、フランス語など8言語に対応長いコンテキスト: 最大128,000トークンの長いテキストを処理可能 ビジョンベースのユースケース AWSは、Llama 3.2のビジョン機能を活用した様々なユースケースを紹介しています。 ドキュメントの質問応答: 財務資料...
    Show More Show Less
    Less than 1 minute

What listeners say about 株式会社ずんだもん技術室AI放送局

Average customer ratings

Reviews - Please select the tabs below to change the source of reviews.