よくある質問
質問がありますか?答えがあります。Gemini CLI について最もよく寄せられる質問をいくつか紹介します。
Gemini API と Gemini CLI の違いは何ですか?
Gemini API は Google が提供するバックエンドサービスで、プログラムが AI モデルにアクセスできるようにします。Gemini CLI は API を使用するユーザーフレンドリーな公式コマンドラインツールで、追加のコードを書くことなくターミナルから直接モデルと対話できます。
Gemini API キーを取得するにはどうすればよいですか?無料ですか?
Google AI Studio から無料の API キーを取得できます。Google アカウントでサインインして新しいキーを作成するだけです。ブログに全プロセスを案内する詳細なステップバイステップガイドがあります。
Gemini API の無料使用制限は何ですか?
Google は Gemini API に対して寛大な無料使用制限を提供しています。2025年現在、毎分最大60リクエストを送信でき、月に数百万文字を無料で処理できます。これは、ほとんどの個人開発者や小規模プロジェクトには十分です。
Gemini CLI で API キーを使用するのは安全ですか?
はい、正しく使用すれば安全です。公式の Gemini CLI は API キーをローカルに安全に保存します。ただし、API キーはパスワードのように扱う必要があります - 決して共有したり、公開リポジトリにコミットしたりしないでください。CLI は通常、システムの安全な認証情報ストレージに保存します。
Windows で Gemini CLI を使用できますか?
はい、Gemini CLI は Windows と完全に互換性があります。選択する実装に応じて、npm、pip 経由でインストールするか、スタンドアロン実行可能ファイルをダウンロードできます。Windows 固有の手順については、インストールガイドをご確認ください。
Gemini を使用してローカルファイルを分析するにはどうすればよいですか?
Gemini CLI では、入力リダイレクションや特定のファイルフラグを使用して、ファイルの内容を直接モデルに渡すことができます。例:
gemini --file=mycode.py "このコードを説明して"
または cat mycode.py | gemini "このコードを説明して"
。これにより、コード、ログ、またはテキストファイルを分析できます。コーディングに最適な Gemini モデルは何ですか?
コーディングタスクには、現在 Gemini 1.5 Pro が最適です。大きなコンテキストウィンドウ(最大100万トークン)と強力なコーディング機能を持っています。より簡単なタスクには、Gemini 1.5 Flash が良いパフォーマンスとより高速な応答時間を提供します。--model フラグでモデルを指定できます。
Gemini CLI でモデルをファインチューニングできますか?
Gemini CLI 自体はファインチューニング機能を提供していませんが、Google の Vertex AI プラットフォームを使用して、特定の用途に合わせて Gemini モデルをファインチューニングできます。その後、CLI をカスタムチューニングされたモデルエンドポイントを使用するように設定できます。