Model Context Protocol (MCP) に対応した サーバー や ツールキット を集めたプラットフォームです。 これは、 AIアシスタント(特に大規模言語モデル、LLM) が、 ウェブ、ファイルシステム、データベース、外部サービス などの 現実世界のコンテキスト にアクセスし、 対話 できるようにするためのものです。 Glama.ai自体は、MCPプロトコル対応の オープンソースクライアント として機能し、複数のMCP互換サービスを接続・利用できる 集約型インターフェース の役割を果たします。 Glama.aiのMCPサーバーの主な特徴 Glama.aiのmcpサイトで提供されているサーバーは、特定の機能に特化しており、AIアシスタントにその機能を提供します。具体的な例と機能は以下の通りです。 サーバー/ツールキット名 主な機能の概要 MCP Webブラウザサーバー ヘッドレスWebブラウジング (任意のWebサイトへの移動、SSL検証バイパス)、 フルページコンテンツ抽出 (動的なJavaScriptを含む)、 Webインタラクション (クリック、テキスト入力、スクリーンショット)を提供します。 Crawl4AI MCP サーバー 高性能なWebスクレイピング 、 Webクロール 、 ディープリサーチ (複数ページにわたる調査)、 構造化データ抽出 などをAIアシスタントに提供します。 ヘルスケアMCPサーバー 医療情報 や ヘルスケアデータ (FDA医薬品情報、PubMed Research、臨床試験、医学用語など)へのアクセスをAIアシスタントに提供します。 MCP ツールキット ファイルシステム操作 (読み書き、検索)、 データベース統合 (MySQL, PostgreSQL, Redis)、 GitHub統合 、 コマンド実行 など、広範な開発者向けツールをAIに提供します。 これらのサーバーは、AIアシスタント(例えばClaude DesktopなどのMCPクライアント)に接続され、AIモデルが単なる知識ベースだけでなく、 外部の最新情報や動的なリソース を活用できるようにします。 Glama.aiのMCPサーバー一覧ページに表示されている「 security (セキュリティ)」「 license (ライセンス)」「 q...
Gemini SDK(Google Gemini SDK)は、Google が開発したマルチモーダルLLM(大規模言語モデル)である Gemini へのアクセスを簡単に行うためのソフトウェア開発キットです。主に以下の目的で利用されます。
1. インストールと基本的なセットアップ
Pythonの場合
pip install google-generativeai
import google.generativeai as genai
# APIキー設定
genai.configure(api_key="YOUR_API_KEY")
model = "gemini-1.5-flash"
response = genai.generate_text(
model=model,
prompt="こんにちは、Gemini SDKについて簡単に紹介してください。"
)
print(response.text)
JavaScript/Node.jsの場合
npm install @google/generative-ai
import { GoogleGenerativeAI } from '@google/generative-ai';
const genAI = new GoogleGenerativeAI(process.env.GOOGLE_API_KEY);
const model = genAI.getGenerativeModel({ model: 'gemini-1.5-flash' });
const result = await model.generateContent('Gemini SDKはどんな機能がありますか?');
console.log(result.response.text());
2. 主要機能
| 機能 | 詳細 | 例 |
|---|---|---|
| テキスト生成 | 言語モデルにプロンプトを渡し、応答生成。 | model.generateContent("会議の議事録作成") |
| 画像・動画プロンプト | 画像を添付して説明・生成を行う。 | model.generateContent({ parts: [{ image: fs.readFileSync('input.jpg') }, { text: 'この画像の要約を作ってください' }] }) |
| ファインチューニング | 独自データセットでパラメータをチューニング。 | model.setFineTuning(...) |
| チャットインタフェース | 状態を保った連続会話が可能。 | model.startChat({ context: ['あなたは...'] }) |
| セキュリティ | 生成コンテンツのフィルタやコンテンツモデレーション。 | model.enableSafetySettings() |
3. ファインチューニングとパラメータ制御
- 温度 (
temperature):生成結果の多様性制御。0〜1。低いほど決定的です。 - 最大トークン数 (
max_output_tokens):1回の生成で返すトークン上限。 - Top‑P (
top_p): nucleus sampling の p 値。高いほど多様。 - チャット履歴:継続的に対話を行う場合、過去のやり取りを
historyとして与えることで文脈を保てます。
response = genai.generate_text(
model="gemini-1.5-flash",
prompt="...",
temperature=0.7,
max_output_tokens=512
)