Skip to content

Ollama Model node common issues#

นี่คือข้อผิดพลาดและปัญหาที่พบบ่อยบางประการกับ Ollama Model node และขั้นตอนในการแก้ไขหรือแก้ไขปัญหาเหล่านั้น

Processing parameters#

Ollama Model node เป็น sub-node Sub-nodes มีพฤติกรรมแตกต่างจาก node อื่นๆ เมื่อประมวลผลหลายรายการโดยใช้ expressions

Node ส่วนใหญ่ รวมถึง root nodes รับรายการจำนวนเท่าใดก็ได้เป็น input ประมวลผลรายการเหล่านี้ และส่งออกผลลัพธ์ คุณสามารถใช้ expressions เพื่ออ้างอิงถึงรายการ input และ node จะประมวลผล expression สำหรับแต่ละรายการตามลำดับ ตัวอย่างเช่น หากมี input เป็นค่าชื่อห้าค่า expression {{ $json.name }} จะประมวลผลเป็นแต่ละชื่อตามลำดับ

ใน sub-nodes expression จะประมวลผลเป็นรายการแรกเสมอ ตัวอย่างเช่น หากมี input เป็นค่าชื่อห้าค่า expression {{ $json.name }} จะประมวลผลเป็นชื่อแรกเสมอ

Can't connect to a remote Ollama instance#

Ollama Model node ถูกออกแบบมาเพื่อเชื่อมต่อกับ Ollama instance ที่โฮสต์แบบ local เท่านั้น ไม่ได้รวมคุณสมบัติการยืนยันตัวตนที่คุณต้องการเพื่อเชื่อมต่อกับ Ollama instance ที่โฮสต์จากระยะไกล

ในการใช้ Ollama Model ให้ทำตาม Ollama credentials instructions เพื่อตั้งค่า Ollama แบบ local และกำหนดค่า instance URL ใน n8n

Can't connect to a local Ollama instance when using Docker#

Ollama Model node เชื่อมต่อกับ Ollama instance ที่โฮสต์แบบ local โดยใช้ base URL ที่กำหนดโดย Ollama credentials เมื่อคุณรัน n8n หรือ Ollama ใน Docker คุณต้องกำหนดค่าเครือข่ายเพื่อให้ n8n สามารถเชื่อมต่อกับ Ollama ได้

โดยทั่วไป Ollama จะรอการเชื่อมต่อบน localhost ซึ่งเป็นที่อยู่เครือข่าย local ใน Docker โดยค่าเริ่มต้น แต่ละ container จะมี localhost ของตัวเองซึ่งสามารถเข้าถึงได้จากภายใน container เท่านั้น หาก n8n หรือ Ollama กำลังทำงานใน container พวกมันจะไม่สามารถเชื่อมต่อผ่าน localhost ได้

วิธีแก้ปัญหาขึ้นอยู่กับว่าคุณโฮสต์ส่วนประกอบทั้งสองอย่างไร

If only Ollama is in Docker#

หากมีเพียง Ollama ที่ทำงานใน Docker ให้กำหนดค่า Ollama ให้รอรับการเชื่อมต่อบนทุก interfaces โดยผูกกับ 0.0.0.0 ภายใน container (images อย่างเป็นทางการได้รับการกำหนดค่าด้วยวิธีนี้อยู่แล้ว)

เมื่อรัน container ให้ publish the ports ด้วย flag -p โดยค่าเริ่มต้น Ollama ทำงานบน port 11434 ดังนั้นคำสั่ง Docker ของคุณควรมีลักษณะดังนี้:

1
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

เมื่อกำหนดค่า Ollama credentials ที่อยู่ localhost ควรทำงานได้โดยไม่มีปัญหา (ตั้งค่า base URL เป็น http://localhost:11434)

If only n8n is in Docker#

หากมีเพียง n8n ที่ทำงานใน Docker ให้กำหนดค่า Ollama ให้รอรับการเชื่อมต่อบนทุก interfaces โดยผูกกับ 0.0.0.0 บน host

หากคุณกำลังรัน n8n ใน Docker บน Linux ให้ใช้ flag --add-host เพื่อ map host.docker.internal ไปยัง host-gateway เมื่อคุณเริ่ม container ตัวอย่างเช่น:

1
docker run -it --rm --add-host host.docker.internal:host-gateway --name n8n -p 5678:5678 -v n8n_data:/home/node/.n8n docker.n8n.io/n8nio/n8n

หากคุณใช้ Docker Desktop สิ่งนี้จะถูกกำหนดค่าให้คุณโดยอัตโนมัติ

เมื่อกำหนดค่า Ollama credentials ให้ใช้ host.docker.internal เป็นที่อยู่ host แทน localhost ตัวอย่างเช่น หากต้องการผูกกับ port เริ่มต้น 11434 คุณสามารถตั้งค่า base URL เป็น http://host.docker.internal:11434

If Ollama and n8n are running in separate Docker containers#

หากทั้ง n8n และ Ollama ทำงานใน Docker ใน container แยกกัน คุณสามารถใช้ Docker networking เพื่อเชื่อมต่อพวกมันได้

กำหนดค่า Ollama ให้รอรับการเชื่อมต่อบนทุก interfaces โดยผูกกับ 0.0.0.0 ภายใน container (images อย่างเป็นทางการได้รับการกำหนดค่าด้วยวิธีนี้อยู่แล้ว)

เมื่อกำหนดค่า Ollama credentials ให้ใช้ชื่อ container ของ Ollama เป็นที่อยู่ host แทน localhost ตัวอย่างเช่น หากคุณเรียก container ของ Ollama ว่า my-ollama และมันรอรับการเชื่อมต่อบน port เริ่มต้น 11434 คุณจะต้องตั้งค่า base URL เป็น http://my-ollama:11434

If Ollama and n8n are running in the same Docker container#

หาก Ollama และ n8n ทำงานใน container Docker เดียวกัน ที่อยู่ localhost ไม่จำเป็นต้องมีการกำหนดค่าพิเศษใดๆ คุณสามารถกำหนดค่า Ollama ให้รอรับการเชื่อมต่อบน localhost และกำหนดค่า base URL ใน Ollama credentials in n8n ให้ใช้ localhost: http://localhost:11434

Error: connect ECONNREFUSED ::1:11434#

ข้อผิดพลาดนี้เกิดขึ้นเมื่อคอมพิวเตอร์ของคุณเปิดใช้งาน IPv6 แต่ Ollama กำลังรอรับการเชื่อมต่อที่อยู่ IPv4

ในการแก้ไขปัญหานี้ ให้เปลี่ยน base URL ใน Ollama credentials ของคุณเพื่อเชื่อมต่อกับ 127.0.0.1 ซึ่งเป็นที่อยู่ local เฉพาะสำหรับ IPv4 แทน alias localhost ที่สามารถ resolve เป็น IPv4 หรือ IPv6 ได้: http://127.0.0.1:11434