生成式 AI 巨集函數
生成式 AI 概論
結構化工具可由三個途徑使用 生成式 AI 工具
LLM 控制項 可制定提示詞預設使用 Llama3.1 8B 模型推論,詳見 LLM 控制項說明。
巨集按鈕 可使用 LLMQUERY() 函數選用不同語言模型,執行文字生成AI,或使用 LLMVISION() 函數 調用多模態生成式AI,解析圖像。
LLMQUERY 函數
LLMQUERY 函數 是一種用於調用大型語言模型(LLM)進行文本生成的函數。本函數僅能使用在巨集按鈕。它根據指定的提示(prompt)和模型配置生成相應的文本,並將結果存儲在指定的單元格中。參見 範例 1-4。
函數說明
函數名稱:
LLMQUERY用法:
LLMQUERY(id, prompt, model)參數:
id:目標單元格的標識,文本生成結果將存儲在這個單元格中。prompt:提示,包含需要模型生成的內容描述,系統提示詞預設定醫療回答為主,避免政治以及程式設計等非醫療回答以節約運算資源。model:(選填) 本院部署以下三個系列大語言模型 (Multiple Models),使用者可依工作任務需求選填設定,調用偏好模型:Llamma 系列
未設定 : 會預設使用 Llama3.1 8B 模型,可處理的上下文長度 32K, 擅長英文問答,推論速度快。
設定 "70b": 會使用 Llama 3.3 70B 模型,可處理的上下文長度 32K,效能與參數規模達 405B 的 Llama 3.1 相當,可使用 JSON tooling 以及 structured output。
Google 模型系列
設定 "gemma3": 會使用 Gemma3:4b (多模態)模型,可處理上下文,圖形長度 16K。
設定 "gemma3_12b": 會使用 Gemma3:12b (多模態)模型,可處理上下文、圖形長度 16K。
設定 "gemma3_27b": 會使用 Gemma3:27b (多模態)模型,可處理上下文、圖形長度 16K。
設定 "medgemma" : 會使用 medgemma:4b (多模態)模型,可處理上下文、圖形長度 16K。(Gemma 3 variants that are trained for performance on medical text and image comprehension.)
設定 "medgemma:27b": 會使用 medgemma:27b (多模態) 模型,可處理上下文、圖形長度 16K。 (Gemma 3 variant optimized for medical text)
Qwen3 模型系列
設定 "qwen332b" : 會使用 qwen3:32b 模型,可處理的上下文長度32K,非思考模式。
設定 "qwen3a3b": 會使用 qwen3:30b-a3b-q4_K_M 模型,可處理的上下文長度 32K,非思考模式。
設定 "tqwen332b", "tqwen3a3b": 會使用 思考模式(Thinking Mode),適用於需要深度推理的複雜任務,模型會逐步推理以提供更精確的答案。
GTP-OSS 模型系列
設定 "gpt-oss-20b-low", "gpt-oss-20b-medium", gpt-oss-20b-high : 會使用 gpt-oss-20b 模型,進行 low, medium, high 思考模式。可處理的上下文長度16K。
設定 "gpt-oss-120b-low", "gpt-oss-120b-medium", gpt-oss-120b-high : 會使用 gpt-oss-120b 模型,進行 low, medium, high 思考模式。可處理的上下文長度16K。
設定 "phi4": 會使用 Microsoft Phi-4 14b 模型,可處理的上下文長度 16K。
範例 1
以下的範例,使用 批次多函數指令執行 和 MACRO 巨集專用函數
範例 2
以下的範例,使用 批次多函數指令執行 和 LLMQUERY 巨集專用函數
範例 2 解析
使用 批次多函數指令執行 接續執行兩個 LLMQUERY 巨集專用函數
由於未指定 LLM,預設使用 Llama3.1 8B 模型,進行病歷整理,將結果放到控制項 39
再利用 Llama3.1 8B 模型 依照 控制項 39 的結果,詢問臨床問題以及建議的檢查,在將結果放回 控制項 32。
範例 3
以下的範例,使用 批次多函數指令執行 、 LLMQUERY、MACRO 巨集專用函數 來按順序執行多個步驟,並根據公式計算結果動態更新元素內容。
範例 3 解析
接續執行三個函數
設定參數先調用 生成式AI工具,回答代謝症候群說明,將結果放到控制項 2
再利用 MACRO 將前面的結果複製到 控制項 4,
模型設定 "tw" 會利用 Google Gemma2 模型 將控制項 4內容 進行中文翻譯,在將結果放到 控制項 6。
範例 4
範例 4 解析
第一步:
LLMQUERY(16, CONCATENATE(...),"70b")模型指定 "70b"使用 Llama 3.3 70B 模型進行文本生成。它首先將多個單元格內容連接起來,形成一個完整的提示,然後將這個提示發送給 Llama 3.3 70B 模型進行處理。結果將存儲在指定的單元格中。第二步:
LLMQUERY(6, CONCATENATE(...),"70b")調用 Llama 3.3 70B 模型,基於第一步的結果進行進一步的文本生成。提示包含了患者的年齡、性別等信息,並要求模型生成一個完整的病史敘述。第三步:
MACRO(6, A2)將單元格A2的值設置到元素(itemid=6)中,並觸發相關事件。第四步:
MACRO(4, A2)將單元格A2的值設置到另一個元素(itemid=4)中,並觸發相關事件。
LLMVISION 函數
LLMVISION 函數 是一種用於調用大型語言模型(LLM)進行多模態 (依據圖形生成) 的函數。本函數僅能使用在巨集按鈕。它根據指定的提示(prompt)和模型配置生成相應的文本,並將結果存儲在指定的單元格中。參見 範例5。
函數說明
函數名稱:
LLMVISION用法:
參數:
id:目標單元格的標識,文本生成結果將存儲在這個單元格中。prompt:提示,包含需要模型生成的內容描述,系統提示詞預設定醫療回答為主,避免政治以及程式設計等非醫療回答以節約運算資源。可以請多模態模型專注描述影像所見,其餘衍伸問題可使用 pipline 巨集,調用 LLMQUERY() 接力詢答,提升生成品質。model:本院部署 Google (多模態) 大語言模型,使用者可依工作任務需求選填設定,調用偏好模型設定 "gemma3": 會使用 Gemma3:4b 多模態模型,可處理圖形 context window 16K。
(推薦) 設定 "gemma3_12b": 會使用 Gemma3:12b 多模態模型,可處理圖形 context window 16K。
設定 "gemma3_27b": 會使用 Gemma3:27b 多模態模型,可處理圖形 context window 16K。
設定 "medgemma" : 會使用 medgemma:4b 多模態模型,可處理圖形 context window 16K。(Gemma 3 variants that are trained for performance on medical text and image comprehension.)
設定 "medgemma:27b": 會使用 medgemma:27b 多模態模型,可處理圖形 context window 16K。(Gemma 3 variant optimized for medical text)
範例 5
範例 5 解析
第一步:
LLMVISION(3, "please...","gemma3_12b")指定 "gemma3_12b" 多模態模型解析影像。解析後的內容存在 A3 欄位。第二步:
LLMQUERY(4, CONCATENATE(...),A3,..", "gpt-oss-20b-medium" )組合上一個步驟產生的 A3 影像描述,請 gpt-oss-20b-medium 模型推論出我們希望的 finding, impression, and Differential diagnosis。


以上範例使用者僅須按一個按鈕,就可以自動依序執行所有步驟,得到結果。
Last updated