生成AIとのやりとりをするツール
OpenAI、Anthropic、Google、Perplexity、Mistralのテキスト生成AIモデルとやり取りするためのPythonライブラリおよびコマンドラインツールmultiai
を作成した。このページでは概要を記す。詳しくはマニュアル参照。
AIプロバイダー | Webサービス | 使用可能なモデル |
---|---|---|
OpenAI | ChatGPT | GPTモデル |
Anthropic | Claude | Claudeモデル |
Gemini | Geminiモデル | |
Perplexity | Perplexity | Perplexityモデル |
Mistral | Mistral | Mistralモデル |
主な機能
- インタラクティブチャット: ターミナルから直接AIと対話できます。
- 複数行入力: 複雑なクエリのために複数行のプロンプトをサポートします。
- 長文応答のページャー: 長い応答をページャーで表示できます。
- 継続処理: 応答が途中で切れた場合に、続きのリクエストを自動的に処理します。
- 自動チャットログ: チャット履歴を自動的に保存できます。
使い方
multiai
をインストールしたら、選択したAIプロバイダーのAPIキーを環境変数またはユーザー設定ファイルに設定します。設定が完了したら、AIと対話することができます。
-
簡単な質問を送信するには:
ai こんにちは
以下のような応答が表示されるはずです:
gpt-4o-mini> こんにちは!今日はどんなことをお手伝いできますか?
-
インタラクティブセッションを行うには、インタラクティブモードに入ります:
ai
このモードでは、会話を続けることができます:
user> こんにちは gpt-4o-mini> こんにちは! 何かお困りですか? 何かお手伝いできることがあれば、遠慮なくお申し付けください。 user> 元気ですか? gpt-4o-mini> ありがとう!元気です! あなたはどうですか? 何か楽しいことはありましたか? user>
すべてのコマンドラインオプションの一覧を見るには、以下を使用します:
ai -h
より詳細なドキュメントを見るには、マニュアルをウェブブラウザで開くことができます:
ai -d
Pythonライブラリとしてのmultiai
の使用
multiai
はPythonライブラリとしても使用できます。以下は簡単な例です:
import multiai
# Initialize the client
client = multiai.Prompt()
client.set_model('openai', 'gpt-4o') # Set model
client.temperature = 0.5 # Set temperature
# Send a prompt and get a response
answer = client.ask('hi')
print(answer)
# Continue the conversation with context
answer = client.ask('how are you')
print(answer)
# Clear the conversation context
client.clear()
マニュアルには、以下のサンプルコードが含まれています。
- テキストファイルを英語に翻訳するスクリプト。
- さまざまなプロバイダーが提供するAIモデルから簡単に選択し、それらと会話できるローカルチャットアプリ。