Gemini SDK(Google Gemini SDK)は、Google が開発したマルチモーダルLLM(大規模言語モデル)である Gemini へのアクセスを簡単に行うためのソフトウェア開発キットです。主に以下の目的で利用されます。 1. インストールと基本的なセットアップ Pythonの場合 pip install google-generativeai import google . generativeai as genai # APIキー設定 genai . configure ( api_key = "YOUR_API_KEY" ) model = "gemini-1.5-flash" response = genai . generate_text ( model = model , prompt = "こんにちは、Gemini SDKについて簡単に紹介してください。" ) print ( response . text ) JavaScript/Node.jsの場合 npm install @google/generative-ai import { GoogleGenerativeAI } from '@google/generative-ai' ; const genAI = new GoogleGenerativeAI ( process . env . GOOGLE_API_KEY ) ; const model = genAI . getGenerativeModel ( { model : 'gemini-1.5-flash' } ) ; const result = await model . generateContent ( 'Gemini SDKはどんな機能がありますか?' ) ; console . log ( result . response . text ( ) ) ; 2. 主要機能 機能 詳細 例 テキスト生成 言語モデルにプロンプトを渡し、応答生成。 model.generateContent("会議の...
Gemini SDK(Google Gemini SDK)は、Google が開発したマルチモーダルLLM(大規模言語モデル)である Gemini へのアクセスを簡単に行うためのソフトウェア開発キットです。主に以下の目的で利用されます。
1. インストールと基本的なセットアップ
Pythonの場合
pip install google-generativeai
import google.generativeai as genai
# APIキー設定
genai.configure(api_key="YOUR_API_KEY")
model = "gemini-1.5-flash"
response = genai.generate_text(
model=model,
prompt="こんにちは、Gemini SDKについて簡単に紹介してください。"
)
print(response.text)
JavaScript/Node.jsの場合
npm install @google/generative-ai
import { GoogleGenerativeAI } from '@google/generative-ai';
const genAI = new GoogleGenerativeAI(process.env.GOOGLE_API_KEY);
const model = genAI.getGenerativeModel({ model: 'gemini-1.5-flash' });
const result = await model.generateContent('Gemini SDKはどんな機能がありますか?');
console.log(result.response.text());
2. 主要機能
機能 | 詳細 | 例 |
---|---|---|
テキスト生成 | 言語モデルにプロンプトを渡し、応答生成。 | model.generateContent("会議の議事録作成") |
画像・動画プロンプト | 画像を添付して説明・生成を行う。 | model.generateContent({ parts: [{ image: fs.readFileSync('input.jpg') }, { text: 'この画像の要約を作ってください' }] }) |
ファインチューニング | 独自データセットでパラメータをチューニング。 | model.setFineTuning(...) |
チャットインタフェース | 状態を保った連続会話が可能。 | model.startChat({ context: ['あなたは...'] }) |
セキュリティ | 生成コンテンツのフィルタやコンテンツモデレーション。 | model.enableSafetySettings() |
3. ファインチューニングとパラメータ制御
- 温度 (
temperature
):生成結果の多様性制御。0〜1。低いほど決定的です。 - 最大トークン数 (
max_output_tokens
):1回の生成で返すトークン上限。 - Top‑P (
top_p
): nucleus sampling の p 値。高いほど多様。 - チャット履歴:継続的に対話を行う場合、過去のやり取りを
history
として与えることで文脈を保てます。
response = genai.generate_text(
model="gemini-1.5-flash",
prompt="...",
temperature=0.7,
max_output_tokens=512
)