Cze艣膰 MailingR, tu Jarek 馃憢
Dzi艣 o konkretach: jak w praktyce rozszerza膰 mo偶liwo艣ci modeli AI bez wchodzenia w skomplikowan膮 in偶ynieri臋.
Mamy 3 g艂贸wne rzeczy.
- LLM - czyli model j臋zykowy
- Tool calling - mo偶liwo艣膰 komunikacji modelu z zewn臋trznymi narz臋dziami
- Instrukcja - prompt m贸wi膮cy modelowi jak i kiedy ma korzysta膰 z tych narz臋dzi (to ju偶 trudniejsze)
Jak to dzia艂a w praktyce?
1. M贸wisz LLM-owi: "Jeste艣 agentem, kt贸ry ma za zadanie X.
2. Mo偶esz u偶y膰 nast臋puj膮cych narz臋dzi: Y, Z"
3. LLM analizuje cel i decyduje, kt贸rego narz臋dzia u偶y膰
4. LLM wywo艂uje funkcj臋, np. search_web("najnowsze wiadomo艣ci o AI")
5. Twoja aplikacja przejmuje to wezwanie, wykonuje faktyczne dzia艂anie (np. wysy艂a zapytanie do API)
6. Aplikacja zwraca wyniki do LLM
7. LLM przetwarza te wyniki i decyduje co dalej
Ideowo proste. No ale jak doda膰 co艣 do LLM?
Je艣li kiedykolwiek pr贸bowa艂e艣 zintegrowa膰 LLM (np. Claude czy GPT) z zewn臋trznym API, to wiesz, 偶e to jest... upierdliwe.
Musisz:
- Opisa膰 struktur臋 API dla modelu - Napisa膰 kodzik do obs艂ugi API - Zaimplementowa膰 error handling - Zadba膰 o dost臋p do odpowiednich danych
Wkurzy艂em si臋 ostatnio. Miesi膮c temu pisa艂em "r臋cznie" integracj臋 z ClickUp dla chatbota. A nie wiedzia艂em tego. Ju偶 wtedy by艂 gotowiec..
MCP
Firma Anthropic (ci od Claude) okre艣li艂a Model Context Protocol (MCP) jako otwarty standard protoko艂u komunikacyjnego, kt贸ry dzia艂a jak warstwa po艣rednicz膮ca mi臋dzy modelami AI a zewn臋trznymi systemami
MCP to w艂a艣nie ten brakuj膮cy element, kt贸ry pozwala w prosty spos贸b rozszerza膰 mo偶liwo艣ci modeli AI.
Mamy tu architektur臋 "serwer-klient":
- MCP Serwer - wystawia dane/zasoby w ustandaryzowany spos贸b (np. system zadaniowy ClickUp)
- MCP Klient - integruje si臋 z modelem AI (np. Claude), automatycznie t艂umacz膮c protok贸艂 na instrukcje dla modelu
Efektywnie - MCP umo偶liwia "plug and play" dla r贸偶nych integracji
Poni偶ej: konfiguracja serwer贸w MCP dla Claude Desktop.
|