ロゴ

Mocolamma

ドキュメントホーム / チャットタブ

チャットタブ

チャットを行う

チャットタブ

チャットタブを開くと、このような画面が表示されます。チャットを行うには、まずはチャットに使用したいモデルを選択する必要があります。

モデルを選択

モデルを選択するには、右上のモデル切り替えボタンをクリックまたはタップすると、選択状態になっているOllamaサーバー上にあるモデルが一覧で表示されるので、使用したいモデルを選択します(サーバーの選択状態を切り替えるには、サーバータブのドキュメントをご覧ください)。

メッセージを入力

モデルが選択されるとメッセージが入力できるようになりますので、AIモデルに送信したいテキストを入力し、送信ボタンをクリックまたはタップします。
macOSでメッセージを改行したい場合は、⇧ (Shift) + ↩︎ (Return)キーを同時に押します。

モデルの読み込み

メッセージを送信すると、Ollamaサーバー上にチャット要求が送信され、必要に応じてモデルの読み込み作業が始まります。
モデルの種類や、Ollamaサーバー上のモデルが保存されているストレージの種類によっては読み込みに時間がかかる場合があります。

豆知識
デフォルトでAPIタイムアウトは30秒に設定されているため、モデルの読み込みに時間がかかる場合はタイムアウトエラーが発生する場合があります。
モデルの読み込みに時間がかかることがわかっている場合は、設定からAPIタイムアウトまでの時間を長くするか、無制限に設定することをおすすめします。
APIタイムアウトまでの時間を設定する方法については、設定のドキュメントをご覧ください。

メッセージの操作

しばらくすると、AIから回答が返ってきます。
応答が最後まで終了すると、メッセージに対して操作を行うことができます。可能な操作は以下の通りです。

  • 自分のメッセージ
    • コピー
      • メッセージをMarkdown形式のテキストとしてコピーすることができます。
    • 編集
      • 送信したメッセージを編集して送信し直すことができます。最後に送信したメッセージのみ編集可能です。
  • AIからのメッセージ
    • 前のリビジョンに切り替える
      • やり直す前のリビジョンに切り替えることができます。リビジョンが2つ以上ある場合に表示されます。
    • 次のリビジョンに切り替える
      • 前のリビジョンから次のリビジョンに切り替えることができます。リビジョンが2つ以上ある場合に表示されます。
    • やり直す
      • AIからの回答をやり直すことができます。最後のメッセージのみやり直し可能です。
    • コピー
      • メッセージをMarkdown形式のテキストとしてコピーすることができます。

情報
パフォーマンスの低下を防ぐため、AIからの回答が返ってきている間(ストリームレスポンス中)のMarkdownテキストは1行ずつ処理されます。
そのため、表示が崩れているように見えることがありますが、すぐに正しい表示に変わるはずです。

新規チャットを始める

チャットの履歴を消去して新規チャットを始めるには、右上にある新規チャットボタンをクリックするか、⌥ (Option) + ⌘ (Command) + Nキーを同時に押します。

チャットの設定を変更する

チャットインスペクタ

インスペクタを開くことで、チャットの設定をカスタマイズすることができます。
インスペクタを開くには、右上のサイドバー切り替えボタンをクリックまたはタップします。

インスペクタからは、次の設定をカスタマイズすることができます。

  • チャット設定
    • ストリームレスポンス
      • AIからのメッセージを連続的に受信するかどうかを切り替えます。オフにする場合、最終回答が返ってくるまで応答が来なくなるため、APIタイムアウトを無制限にすることをおすすめします。APIタイムアウトまでの時間を設定する方法については、設定のドキュメントをご覧ください。
    • 思考
      • 思考に対応したモデルを使う場合に、推論を行うかどうかを切り替えます。「モデルの機能」で「思考」に対応したモデルのみ設定可能です。モデルの機能を確認するには、モデルタブのドキュメントをご覧ください。
    • システムプロンプト
      • AIモデルに対してシステムプロンプトを設定することができます。
  • カスタム設定
    • カスタム設定を有効にする
      • 以下の設定を使うためにカスタム設定を有効化するかどうかを切り替えます。
    • 温度
      • モデルの温度を指定します。0.02.0の間で設定することができ、温度を下げるとより正確に、温度を上げるとより創造的になります(すべてのモデルがこの設定に従うとは限りませんし、設定によって正しく出力されなくなる場合もあります)。
    • コンテキストウィンドウ
      • モデルが一度に読み込めるトークン数を指定します。512〜モデルのコンテキスト長の間で設定することができます。モデルのコンテキスト長を確認するには、モデルタブのドキュメントをご覧ください。

ここで設定した内容は、次回送信したメッセージ以降に反映されます。

Mocolamma Icon

Mocolamma

Ollamaマネージャーアプリ

GitHub Latest Release

GitHub Repo stars

GitHub Downloads (all assets, all releases)

Mac App Storeからダウンロード
GitHubから無料でダウンロード
App Storeからダウンロード
紹介