生成式 AI 巨集函數

生成式 AI 概論

結構化工具可由三個途徑使用 生成式 AI 工具

  1. LLM 控制項 可制定提示詞預設使用 Llama3.1 8B 模型推論,詳見 LLM 控制項說明

  2. 巨集按鈕 可使用 LLMQUERY() 函數選用不同語言模型,執行文字生成AI,或使用 LLMVISION() 函數 調用多模態生成式AI,解析圖像。

  3. 使用 AI 小助手 : 開箱即用體驗 LLM 預設功能,也可選用其他助手表單,詳見 AI 小助手 說明。

LLMQUERY 函數

LLMQUERY 函數 是一種用於調用大型語言模型(LLM)進行文本生成的函數。本函數僅能使用在巨集按鈕。它根據指定的提示(prompt)和模型配置生成相應的文本,並將結果存儲在指定的單元格中。參見 範例 1-4

函數說明

  1. 函數名稱LLMQUERY

  2. 用法

LLMQUERY(id, prompt, model)
  1. 參數

  • id:目標單元格的標識,文本生成結果將存儲在這個單元格中。

  • prompt:提示,包含需要模型生成的內容描述,系統提示詞預設定醫療回答為主,避免政治以及程式設計等非醫療回答以節約運算資源。

  • model:(選填) 本院部署以下三個系列大語言模型 (Multiple Models),使用者可依工作任務需求選填設定,調用偏好模型:

    • Llamma 系列

      • 未設定 : 會預設使用 Llama3.1 8B 模型,可處理的上下文長度 32K, 擅長英文問答,推論速度快。

      • 設定 "70b": 會使用 Llama 3.3 70B 模型,可處理的上下文長度 32K,效能與參數規模達 405B 的 Llama 3.1 相當,可使用 JSON tooling 以及 structured outputarrow-up-right

    • Google 模型系列

      • 設定 "tw" or "math" : 會使用 Gemma2 模型,可處理的上下文長度 8K,擅長中文問答,數學計算以及 JSON資料處理。 (參見 範例 2)。

      • 設定 "gemma3": 會使用 Gemma3:4b arrow-up-right (多模態)模型,可處理上下文,圖形長度 16K。

      • 設定 "gemma3_12b": 會使用 Gemma3:12b arrow-up-right (多模態)模型,可處理上下文、圖形長度 16K。

      • 設定 "gemma3_27b": 會使用 Gemma3:27b arrow-up-right (多模態)模型,可處理上下文、圖形長度 16K。

      • 設定 "medgemma" : 會使用 medgemma:4barrow-up-right (多模態)模型,可處理上下文、圖形長度 16K。(Gemma 3arrow-up-right variants that are trained for performance on medical text and image comprehension.)

      • 設定 "medgemma:27b": 會使用 medgemma:27barrow-up-right (多模態) 模型,可處理上下文、圖形長度 16K。 (Gemma 3 variant optimized for medical text)

    • Qwen3 模型系列

      • 設定 "qwen332b" : 會使用 qwen3:32barrow-up-right 模型,可處理的上下文長度32K,非思考模式。

      • 設定 "qwen3a3b": 會使用 qwen3:30b-a3b-q4_K_Marrow-up-right 模型,可處理的上下文長度 32K,非思考模式。

      • 設定 "tqwen332b", "tqwen3a3b": 會使用 思考模式(Thinking Mode),適用於需要深度推理的複雜任務,模型會逐步推理以提供更精確的答案。

    • GTP-OSS 模型系列

      • 設定 "gpt-oss-20b-low", "gpt-oss-20b-medium", gpt-oss-20b-high : 會使用 gpt-oss-20barrow-up-right 模型,進行 low, medium, high 思考模式。可處理的上下文長度16K。

      • 設定 "gpt-oss-120b-low", "gpt-oss-120b-medium", gpt-oss-120b-high : 會使用 gpt-oss-120barrow-up-right 模型,進行 low, medium, high 思考模式。可處理的上下文長度16K。

    • 設定 "phi4": 會使用 Microsoft Phi-4 14barrow-up-right 模型,可處理的上下文長度 16K。

範例 1

以下的範例,使用 批次多函數指令執行 和 MACRO 巨集專用函數

範例 2

以下的範例,使用 批次多函數指令執行 和 LLMQUERY 巨集專用函數

範例 2 解析

  1. 使用 批次多函數指令執行 接續執行兩個 LLMQUERY 巨集專用函數

  2. 由於未指定 LLM,預設使用 Llama3.1 8B 模型,進行病歷整理,將結果放到控制項 39

  3. 再利用 Llama3.1 8B 模型 依照 控制項 39 的結果,詢問臨床問題以及建議的檢查,在將結果放回 控制項 32。

範例 3

以下的範例,使用 批次多函數指令執行 LLMQUERY、MACRO 巨集專用函數 來按順序執行多個步驟,並根據公式計算結果動態更新元素內容。

範例 3 解析

  1. 接續執行三個函數

  2. 設定參數先調用 生成式AI工具,回答代謝症候群說明,將結果放到控制項 2

  3. 再利用 MACRO 將前面的結果複製到 控制項 4,

  4. 模型設定 "tw" 會利用 Google Gemma2arrow-up-right 模型 將控制項 4內容 進行中文翻譯,在將結果放到 控制項 6。

範例 4

範例 4 解析

  1. 第一步LLMQUERY(16, CONCATENATE(...),"70b")模型指定 "70b"使用 Llama 3.3 70B 模型進行文本生成。它首先將多個單元格內容連接起來,形成一個完整的提示,然後將這個提示發送給 Llama 3.3 70B 模型進行處理。結果將存儲在指定的單元格中。

  2. 第二步LLMQUERY(6, CONCATENATE(...),"70b")調用 Llama 3.3 70B 模型,基於第一步的結果進行進一步的文本生成。提示包含了患者的年齡、性別等信息,並要求模型生成一個完整的病史敘述。

  3. 第三步MACRO(6, A2)將單元格 A2 的值設置到元素(itemid=6)中,並觸發相關事件。

  4. 第四步MACRO(4, A2)將單元格 A2 的值設置到另一個元素(itemid=4)中,並觸發相關事件。

LLMVISION 函數

LLMVISION 函數 是一種用於調用大型語言模型(LLM)進行多模態 (依據圖形生成) 的函數。本函數僅能使用在巨集按鈕。它根據指定的提示(prompt)和模型配置生成相應的文本,並將結果存儲在指定的單元格中。參見 範例5

函數說明

  1. 函數名稱LLMVISION

  2. 用法

  1. 參數

  • id:目標單元格的標識,文本生成結果將存儲在這個單元格中。

  • prompt:提示,包含需要模型生成的內容描述,系統提示詞預設定醫療回答為主,避免政治以及程式設計等非醫療回答以節約運算資源。可以請多模態模型專注描述影像所見,其餘衍伸問題可使用 pipline 巨集,調用 LLMQUERY() 接力詢答,提升生成品質。

  • model:本院部署 Google (多模態) 大語言模型,使用者可依工作任務需求選填設定,調用偏好模型

範例 5

範例 5 解析

  1. 第一步LLMVISION(3, "please...","gemma3_12b") 指定 "gemma3_12b" 多模態模型解析影像。解析後的內容存在 A3 欄位。

  2. 第二步LLMQUERY(4, CONCATENATE(...),A3,..", "gpt-oss-20b-medium" ) 組合上一個步驟產生的 A3 影像描述,請 gpt-oss-20b-medium 模型推論出我們希望的 finding, impression, and Differential diagnosis。

以上範例使用者僅須按一個按鈕,就可以自動依序執行所有步驟,得到結果。

Last updated