1 שלב הבסיס

מהם AI Agents — היסטוריה, סוגים ולמה עכשיו

מה הופך מודל שפה (LLM) ל-Agent? למה 2026 היא השנה שבה Agents הפכו ממדגם טכנולוגי לכלי ייצור אמיתי? ואיך האקוסיסטם הישראלי — מ-8200 ועד AI21 — משתלב בתמונה? הפרק הזה בונה את הבסיס לכל מה שנלמד בקורס.

מה יהיה לך בסוף הפרק הזה
מה תוכלו לעשות אחרי הפרק הזה
לפני שמתחילים
הפרויקט שלך — קו אדום לאורך הקורס

לאורך הקורס תבנו ארבעה Agents מלאים: Customer Support Agent (פרק 15), Research Agent (פרק 16), Marketing Agent (פרק 17), ו-Code Review Agent (פרק 18). כל אחד משתמש ב-SDK-ים שונים כדי שתוכלו להשוות גישות. בפרק הזה נגדיר את ה-use case שלכם ונבחר את הפרויקט הראשון שתתחילו לבנות. מפרק 2 ואילך — כל פרק מוסיף שכבה אמיתית לפרויקט.

מילון מונחים — פרק 1
מונח (English) עברית הסבר
AI Agent סוכן בינה מלאכותית תוכנית שמשתמשת ב-LLM כדי לחשוב, לבחור כלים, לבצע פעולות, ולחזור על הלולאה עד שהמשימה הושלמה
LLM (Large Language Model) מודל שפה גדול רשת נוירונית שאומנה על טקסט רב ויודעת לייצר טקסט, לנתח הקשר, ולקבל החלטות — ה"מוח" של ה-Agent
Tool Use / Function Calling שימוש בכלים / קריאת פונקציות היכולת של LLM לבקש הפעלת פונקציה חיצונית — חיפוש באינטרנט, קריאה ממסד נתונים, שליחת מייל
ReAct (Reason + Act) חשיבה + פעולה הארכיטקטורה הנפוצה ביותר ל-Agents: המודל חושב מה לעשות, מבצע פעולה, צופה בתוצאה, וחוזר על הלולאה
MCP (Model Context Protocol) פרוטוקול הקשר מודל תקן פתוח (כיום תחת Linux Foundation) שמאפשר ל-Agent להתחבר לכלים חיצוניים — כמו USB למודלים
A2A (Agent-to-Agent Protocol) פרוטוקול בין סוכנים תקן שמאפשר ל-Agents לדבר אחד עם השני — כמו שיחת טלפון בין Agents
SDK (Software Development Kit) ערכת פיתוח תוכנה ספרייה שמספקת מבנים מוכנים לבניית Agents — במקום לכתוב הכל מאפס
Prompt הנחיה ההוראות שנשלחות ל-LLM — כוללות system prompt (כללי התנהגות) ו-user prompt (הבקשה הספציפית)
Context Window חלון הקשר כמות הטקסט שה-LLM יכול "לראות" בו-זמנית — ב-2026 עד 1-2 מיליון tokens
Tokens טוקנים יחידות הטקסט ש-LLM מעבד — בממוצע, מילה אחת באנגלית שווה ~1.3 tokens, בעברית ~2-3 tokens
Durable Execution ביצוע עמיד היכולת של Agent לשרוד קריסות, הפעלות מחדש, ותהליכים ארוכים — קריטי ל-production
Guardrails מעקות בטיחות בדיקות אוטומטיות על קלט ופלט של ה-Agent — מניעת תוכן מזיק, בדיקת תקינות, אישור פעולות רגישות
מתחיל 15 דקות חינם מושג

מהם AI Agents — הגדרה פשוטה

בואו נתחיל עם ההגדרה הכי פשוטה שאפשר:

AI Agent הוא LLM שיכול להשתמש בכלים ולבצע פעולות בלולאה.

זהו. שלושה מרכיבים — LLM (מוח), Tools (ידיים), ו-Loop (לולאת חשיבה-פעולה). אם חסר אחד מהם, זה לא Agent. אם יש שאילתה אחת ותשובה אחת — זה chatbot. אם יש רצף קבוע של פעולות ללא חשיבה — זו אוטומציה. Agent הוא משהו אחר: הוא חושב, מחליט, פועל, בודק את התוצאה, וחוזר על הלולאה עד שהמשימה הושלמה.

למה זה כל כך חשוב? כי עד 2023-2024, LLM-ים היו "מוח" בלי "ידיים". הם יכלו להגיד "כדאי לך לעשות X" אבל לא יכלו לעשות את X. Agent פותר את הפער הזה: הוא לא רק מייעץ — הוא מבצע. וכשה-LLM מספיק חכם (וב-2026, הוא מספיק חכם), ההבדל הוא דרמטי.

הלולאה הבסיסית — ReAct

כל Agent בעולם, לא משנה באיזה SDK הוא בנוי, עובד לפי אותו דפוס בסיסי שנקרא ReAct — קיצור של Reason + Act (חשיבה + פעולה). הלולאה עובדת כך:

  1. Perceive (קליטה) — ה-Agent מקבל קלט: בקשה מהמשתמש, תוצאה מכלי, או אירוע חיצוני
  2. Think (חשיבה) — ה-LLM מנתח את המצב ומחליט מה הצעד הבא: האם להפעיל כלי? איזה? עם אילו פרמטרים?
  3. Act (פעולה) — ה-Agent מפעיל את הכלי שנבחר — חיפוש באינטרנט, קריאה ל-API, כתיבת קובץ
  4. Observe (תצפית) — ה-Agent מקבל את התוצאה מהכלי ומוסיף אותה ל-context
  5. Repeat or Stop (חזרה או עצירה) — ה-LLM מחליט: האם המשימה הושלמה? אם כן — מחזיר תשובה. אם לא — חוזר לשלב 2

מה שחשוב להבין: ה-LLM לא "רץ" בלולאה במובן הרגיל של תכנות. בכל iteration, ה-LLM מקבל את כל ההיסטוריה (prompt, הודעות קודמות, תוצאות כלים) ומחליט מחדש מה לעשות. הוא לא "זוכר" מה עשה — הוא "קורא" מה עשה מההיסטוריה. זה הבדל קריטי שמשפיע על עיצוב Agents: ככל שיש יותר iterations, כך ה-context גדל ועולה יותר (כסף ו-latency).

הנה איך זה נראה בפסאודו-קוד:

# The Agent Loop — Pseudocode
def agent_loop(user_request, tools, max_iterations=10):
    messages = [
        {"role": "system", "content": "You are a helpful assistant with tools."},
        {"role": "user", "content": user_request}
    ]

    for i in range(max_iterations):
        # THINK: Ask the LLM what to do next
        response = llm.chat(messages, tools=tools)

        # STOP: If the LLM returns text (no tool call), we're done
        if response.type == "text":
            return response.content

        # ACT: Execute the tool the LLM chose
        tool_name = response.tool_call.name
        tool_args = response.tool_call.arguments
        result = execute_tool(tool_name, tool_args)

        # OBSERVE: Add tool result back to conversation
        messages.append({"role": "tool", "content": result})

    return "Max iterations reached — task incomplete."

שימו לב: הקוד הזה הוא רק 20 שורות. זה כל ה-Agent. כל ה-SDK-ים — Claude Agent SDK, OpenAI Agents SDK, Google ADK, Vercel AI SDK, LangGraph — בסופו של דבר מממשים את הלולאה הזו עם הוספות כמו memory, guardrails, ו-error handling. אבל הליבה תמיד אותו דבר: חשוב, פעל, צפה, חזור.

דוגמה קונקרטית: "הזמן לי טיסה לתל אביב"

בואו נעקוב אחרי Agent שמקבל את הבקשה "הזמן לי טיסה לתל אביב בשבוע הבא, בוקר, מחלקת תיירים, עד 3,000 שקל":

  1. Iteration 1 — THINK: "אני צריך לחפש טיסות. אני צריך לדעת תאריכים ספציפיים ומאיפה." → ACT: search_flights(origin="TLV", destination="TLV", date="2026-03-31", class="economy", max_price=3000)OBSERVE: "רגע, origin ו-destination זהים. המשתמש כנראה מתכוון שהוא רוצה להגיע לתל אביב, לא לטוס ממנה. אני צריך לשאול מאיפה."
  2. Iteration 2 — THINK: "חסר לי מידע. אני יודע ש-User Location הוא ברלין מפרופיל המשתמש." → ACT: search_flights(origin="BER", destination="TLV", date_range="2026-03-29 to 2026-04-02", class="economy", max_price=3000)OBSERVE: 7 תוצאות, 3 מתחת ל-3,000 שקל.
  3. Iteration 3 — THINK: "יש 3 אפשרויות. הכי זול הוא 2,200 שקל עם Wizz Air אבל עם עצירה. הכי נוח הוא 2,800 שקל עם EL AL ישיר. אציג את שתי האפשרויות הטובות ביותר למשתמש ואבקש אישור לפני הזמנה." → ACT: מחזיר תשובה למשתמש עם 2 אפשרויות.
  4. Iteration 4 — THINK: המשתמש בחר EL AL. "עכשיו אני צריך להזמין." → ACT: book_flight(flight_id="LY316", passenger=user_profile)OBSERVE: "ההזמנה אושרה. Confirmation: ABC123."
  5. Iteration 5 — THINK: "המשימה הושלמה. אשלח סיכום." → STOP: "הזמנתי לך טיסת EL AL LY316 מברלין לתל אביב, 31 במרץ, בוקר, 2,800 שקל. אישור: ABC123."

שימו לב: ה-Agent לא רק ביצע — הוא גם חשב. הוא זיהה שמשהו לא הגיוני (origin = destination), הבין מהקונטקסט מה המשתמש באמת רוצה, ביקש אישור לפני פעולה בלתי הפיכה (הזמנה), והציג אפשרויות במקום להחליט בעצמו. זה מה שמפריד Agent מ-automation.

ספקטרום ה-Agency — מ-Prompt ועד אוטונומי

המילה "Agent" היא אולי המילה הכי עמוסה ב-AI כרגע. כולם משתמשים בה, אבל כל אחד מתכוון למשהו אחר. בפועל, יש ספקטרום שלם של רמות "Agency":

רמה תיאור דוגמה Agent?
Level 0: Static Prompt שאילתה אחת → תשובה אחת, בלי כלים "תרגם לי את המשפט הזה" לא
Level 1: Chatbot שיחה מרובת תורות, בלי כלים ChatGPT בסיסי, בוט שירות לקוחות פשוט לא
Level 2: Tool-Augmented LLM + כלים, אבל קריאה אחת בלבד ChatGPT עם חיפוש אינטרנט חלקית
Level 3: Agent LLM + כלים + לולאה — מתכנן, מבצע, בודק Agent שמנתח דוח ומייצר סיכום כן
Level 4: Multi-Agent מספר Agents שעובדים יחד על משימה מורכבת צוות Agents: אחד חוקר, אחד כותב, אחד בודק כן
Level 5: Autonomous Agent שפועל באופן עצמאי לאורך זמן בלי פיקוח Agent שעוקב אחרי מתחרים ומעדכן אוטומטית כן (ומפחיד)

ברוב המקרים, כשאנשים אומרים "Agent", הם מתכוונים ל-Level 3 — LLM שיכול להשתמש בכלים ולפעול בלולאה. זה מספיק ל-80% מה-use cases. Multi-Agent (Level 4) רלוונטי למשימות מורכבות מאוד, ו-Autonomous (Level 5) עדיין בשלב מוקדם ודורש פיקוח צמוד.

טעות נפוצה: לקפוץ ישר ל-Multi-Agent

למה זה מפתה: זה נשמע מרשים — "צוות של Agents שעובדים ביחד!" מי לא רוצה את זה?

למה זה טעות: Agent בודד עם כלים טובים כמעט תמיד עדיף על ארכיטקטורת Multi-Agent מורכבת. Multi-Agent מוסיף latency, עלות, ובעיות debug מורכבות. חישבו על זה ככה: האם לבעיה הזו הייתם מגייסים עובד אחד מוכשר או צוות של חמישה?

מה לעשות במקום: התחילו תמיד עם Agent בודד. עברו ל-Multi-Agent רק כשאתם יכולים להוכיח שה-Agent הבודד לא מספיק.

עשו עכשיו 3 דקות

חשבו על פעולה שאתם עושים ביום-יום בעבודה שכוללת: (1) חיפוש מידע, (2) קבלת החלטה על סמך המידע, (3) ביצוע פעולה. זו בדיוק הלולאה של Agent. רשמו את שלושת השלבים — זה ה-use case הראשון שלכם.

מתחיל 10 דקות חינם מושג

היסטוריה קצרה — ממערכות מומחה ל-2026

הרעיון של "תוכנה שפועלת באופן עצמאי" הוא לא חדש. מה שחדש הוא שזה סוף סוף עובד. בואו נעבור על ציר הזמן:

שנות ה-60-90: מערכות מומחה (Expert Systems)

הניסיון הראשון ליצור "Agents" היה מערכות מומחה — תוכנות שמבוססות על כללים קשיחים שנכתבו ידנית. MYCIN (1976) אבחן מחלות זיהומיות לפי כללי if-then, ו-DENDRAL (1969) ניתח מבנים כימיים. המערכות האלה עבדו בתחומים צרים, אבל הן היו שבירות לחלוטין — כל מקרה שלא כיסו הכללים גרם לכשלון. הן היו "חכמות" רק בתחום שמומחה אנושי הזין לתוכן ידנית.

הרעיון מאחורי מערכות מומחה היה נכון: תוכנה שיכולה לקבל החלטות מורכבות כמו מומחה אנושי. הבעיה הייתה בביצוע: כתיבת כללים לכל מצב אפשרי היא עבודת סיזיפוס. כל edge case דורש כלל חדש, כל חריג דורש התאמה, והמערכת הופכת למפלצת של if-else שאף אחד לא יכול לתחזק. זה מה שנקרא GOFAI — Good Old-Fashioned AI — ובשנות ה-90 הגישה הזו הגיעה למבוי סתום שמכונה "חורף ה-AI".

שנות ה-2010: Reinforcement Learning Agents

AlphaGo של DeepMind (2016) הביס את אלוף העולם ב-Go, ו-OpenAI חמישה (2019) ניצח שחקני DOTA מקצוענים. ה-Agents האלה למדו מניסוי וטעייה (Reinforcement Learning — למידה מחיזוקים), לא מכללים שנכתבו ידנית. אבל הם היו מוגבלים לסביבות סגורות וברורות — משחקים עם חוקים מוגדרים. הם לא ידעו להתמודד עם העולם הפתוח, עם שפה טבעית, או עם אי-ודאות.

הלקח המרכזי מתקופה זו: Agents יכולים ללמוד לבצע משימות מורכבות ברמה על-אנושית — אבל רק בסביבות מוגדרות היטב. Go יש חוקים ברורים, מצבים ברורים, וניצחון ברור. העולם האמיתי — שם לקוחות שולחים מיילים מבלבלים, מסמכים מכילים שגיאות, ו-APIs מחזירים שגיאות לא צפויות — זה סיפור אחר לגמרי.

2020-2022: מהפכת ה-LLM

GPT-3 (2020) ואחריו ChatGPT (נובמבר 2022) שינו את הכל. לפתע היה מודל שמבין שפה טבעית ברמה גבוהה, יכול לנתח הקשרים מורכבים, ו — הכי חשוב — יכול לייצר קוד ולקבל החלטות. אבל GPT-3 ו-ChatGPT המקורי לא יכלו לעשות שום דבר — הם רק דיברו. הם היו "מוח" בלי "ידיים".

הפריצה האמיתית לכיוון Agents הגיעה כשOpenAI הוסיפה function calling ל-GPT-3.5 ו-GPT-4 (יוני 2023). פתאום המודל יכול היה לא רק להגיד "כדאי לך לחפש באינטרנט" אלא גם לבקש: "קרא לפונקציה web_search עם הפרמטר query='AI agents market size 2026'". זו הייתה נקודת המפנה — המעבר מ"מדבר על" ל-"עושה".

מרץ 2023: הגל הראשון — AutoGPT ו-BabyAGI

AutoGPT (מרץ 2023) היה הניסיון הראשון לחבר LLM עם כלים ולולאה. הרעיון היה פשוט ומהפכני: תנו ל-GPT-4 גישה לאינטרנט, לקבצים, ולזיכרון — ותנו לו לרוץ בלולאה עד שהמשימה תושלם. הפרויקט קיבל 160K כוכבים ב-GitHub תוך חודש.

אבל AutoGPT גם הדגים את כל הבעיות: ה-Agent נתקע בלולאות אינסופיות, בזבז טוקנים על חשיבה לא-פרודוקטיבית, ושכח מה הוא עושה אחרי כמה איטרציות. המודלים של 2023 פשוט לא היו חכמים מספיק לחשוב, לתכנן, ולבצע בצורה אמינה. AutoGPT לימד את התעשייה שיעור חשוב: Agent שלא אמין הוא גרוע יותר מחסר Agent.

BabyAGI (אפריל 2023) ניסה גישה אחרת — Agent שמתכנן: יוצר רשימת משימות, מבצע את המשימה הראשונה, ומעדכן את הרשימה לפי התוצאה. הרעיון של "plan → execute → re-plan" השפיע על כל ה-SDK-ים שבאו אחריו. אבל גם BabyAGI סבל מאותה בעיה: המודלים לא היו חכמים מספיק לתכנן באמת.

2023-2025: ההתבגרות — Framework-ים ו-SDK-ים

LangChain (2023) הציע מבנה מסודר לבניית Agents, אם כי עם המון abstractions שהקשו על debugging. הספרייה הפכה לסטנדרט דה-פקטו, אבל גם לסמל של over-engineering — "LangChain hell" הפך למם בקהילת המפתחים. CrewAI (2024) הביא את רעיון ה-Multi-Agent בגישה פשוטה ואינטואיטיבית: מגדירים "צוות" של Agents עם "תפקידים", ונותנים להם "משימה" לבצע ביחד.

ואז, ב-2025, המהפכה האמיתית: ספקי המודלים עצמם — Anthropic, OpenAI, Google — שחררו SDK-ים רשמיים לבניית Agents. זה כמו ההבדל בין לבנות אתר ב-vanilla JavaScript לבין להשתמש ב-React — פתאום יש מבנה, כלים, ו-best practices. Anthropic שחררה את Claude Agent SDK (שקודם נקרא Claude Code SDK), OpenAI שחררה את Agents SDK (שימו לב: Agents, ברבים), ו-Google שחררה את Agent Development Kit (ADK).

במקביל, LangGraph התנתק מ-LangChain והגיע ל-1.0 GA (General Availability) — הפך ל-framework ייעודי ל-durable agents עם גרפים של states ו-transitions. ו-Vercel שחררה את AI SDK v6 עם agent abstractions מובנות לעולם ה-web.

2026: השנה שהכל השתנה

מרץ 2026 הוא נקודת מפנה. מה השתנה?

עשו עכשיו 2 דקות

חשבו על רגע שבו השתמשתם ב-ChatGPT או Claude ורציתם שהוא יעשה משהו ולא רק ידבר עליו — "תשלח את המייל הזה", "תעדכן את הטבלה", "תמצא לי את הנתון הזה ותכניס אותו לדוח". זה הרגע שבו הייתם צריכים Agent.

The Agent Stack — 7 שכבות של Agent

כמו ש-web development יש "stack" (frontend, backend, database), גם ל-Agents יש stack. הבנה של השכבות עוזרת להבין מה כל SDK נותן ומה אתם צריכים לבנות בעצמכם:

שכבה מה היא עושה דוגמאות באיזה פרק?
7. Observability מעקב, לוגים, alerts LangSmith, Helicone, OpenTelemetry פרק 19
6. Interface UI / API / Chat Vercel AI SDK (streaming UI), REST API, WebSocket פרק 7, 15
5. Orchestration תיאום multi-agent, routing CrewAI, LangGraph, Google ADK multi-agent פרק 13
4. Memory זיכרון קצר/ארוך טווח, RAG Context window, vector stores, persistent state פרק 12
3. Tools כלים חיצוניים, MCP MCP servers, native functions, APIs פרק 3, 11
2. SDK ספריית פיתוח Claude Agent SDK, OpenAI Agents SDK, Vercel AI SDK פרקים 5-10
1. Model ה-LLM — המוח Claude Opus 4.6, GPT-5, Gemini 2.5 Pro פרק 2

רוב ה-SDK-ים מכסים שכבות 1-3 (Model, SDK, Tools). שכבות 4-7 (Memory, Orchestration, Interface, Observability) הן מה שאתם בונים מעל ה-SDK — וזה מה שמפריד Agent ב-Jupyter notebook מ-Agent ב-production אמיתי. בקורס הזה נלמד את כל 7 השכבות.

מתחיל 12 דקות חינם מושג

סוגי Agents — טקסונומיה

לא כל ה-Agents נולדו שווים. הנה שבעת הסוגים העיקריים, עם דוגמאות קונקרטיות:

1. Conversational Agents — סוכני שיחה

ה-Agent הכי נפוץ ומוכר. מנהל שיחה עם משתמש, יכול למשוך מידע ממערכות חיצוניות, ולבצע פעולות כמו פתיחת ticket או עדכון חשבון. חישבו על נציג שירות לקוחות אוטומטי שבאמת יכול לפתור בעיות — לא רק להפנות אתכם למאמר ב-FAQ.

דוגמה: Agent שירות לקוחות שמקבל "שינו לי את הכתובת בחשבון" → בודק זהות → מעדכן ב-CRM → שולח אישור במייל. הכל בלי מעורבות אנושית.

Conversational Agents הם הנפוצים ביותר בproduction כי הם פותרים בעיה ברורה שיש לה ROI מיידי: הפחתת עומס על צוותי שירות לקוחות. Klarna, למשל, דיווחה שה-Agent שלה מטפל בכ-66% מהפניות בלי מעורבות אנושית. הנה איך הגדרת Agent כזה נראית ב-pseudocode (עוד לא SDK ספציפי — נלמד את זה בפרקים 5-10):

# Conversational Agent — Pseudocode
agent = Agent(
    name="Customer Support",
    system_prompt="""
        You are a customer support agent for an Israeli e-commerce company.
        You can look up orders, update addresses, process returns, and
        escalate to human agents when you're not sure.
        Always verify customer identity before making changes.
        Respond in Hebrew unless the customer writes in English.
    """,
    tools=[lookup_order, update_address, process_return, escalate_to_human],
    model="claude-sonnet-4-6",
    max_iterations=15
)

2. Task Agents — סוכני משימות

Agent שמקבל משימה ספציפית ומבצע אותה. לא מנהל שיחה ארוכה — מקבל הוראה, עובד, מחזיר תוצאה. חישבו על "עוזר שמבצע" — לא "עוזר שמייעץ".

דוגמאות: Agent שמנתח קובץ CSV ומייצר דוח, Agent שעובר על Pull Requests ומוסיף code review, Agent שלוקח טקסט ארוך ומייצר סיכום מובנה עם bullet points.

3. Research Agents — סוכני מחקר

Agent שמחפש מידע ממספר מקורות, מסנתז אותו, ומייצר דוח או תשובה מקיפה. זה אחד ה-use cases הכי חזקים ל-Agents כי הוא ממנף שלוש יכולות שב-LLM-ים מצטיינים: (1) חיפוש ממוקד — Agent יודע לנסח שאילתות חיפוש מדויקות, (2) עיבוד מקבילי — Agent יכול לחפש ב-5 מקורות בו-זמנית, (3) סינתזה — Agent יודע למזג מידע ממקורות שונים לדוח אחיד. בפרק 16 נבנה Research Agent מלא.

דוגמה: Agent שמקבל "תחקור את השוק של AI Agents ב-2026" → מחפש ב-5 מקורות שונים → קורא את התוצאות → מסנתז דוח עם citations → בודק עובדות (האם המספרים מתיישבים בין המקורות?) → מחזיר דוח מסודר עם מקורות.

4. Orchestrator Agents — סוכני תיאום

Agent שלא עושה את העבודה בעצמו — הוא מחלק אותה ל-sub-agents או כלים ומתאם ביניהם. חישבו על מנהל פרויקט שמפיץ משימות ועוקב אחרי ביצוע. Orchestrator Agents הם הבסיס של ארכיטקטורות Multi-Agent — ונלמד אותם לעומק בפרק 13.

דוגמה: Agent שמקבל "תכין לי מצגת על המתחרים" → שולח Agent מחקר לחקור כל מתחרה בנפרד → שולח Agent כתיבה לייצר טקסט מסודר → שולח Agent עיצוב ליצור שקפים → מרכז הכל, בודק עקביות, ומחזיר מצגת מוכנה.

חשוב: Orchestrator Agent צריך להיות "חכם אבל עצלן" — הוא לא עושה עבודה בעצמו, רק מחלק, מתאם, ובודק איכות. אם הוא מתחיל לעשות עבודה בעצמו, זה סימן שהארכיטקטורה לא נכונה.

5. Autonomous Agents — סוכנים אוטונומיים

Agent שפועל ברקע לאורך זמן בלי התערבות אנושית. מקבל מטרה כללית ופועל באופן עצמאי. זה הסוג הכי "מפחיד" והכי מורכב ל-production, כי טעות של Agent אוטונומי אין מי שיתפוס אותה בזמן אמת.

דוגמה: Agent שעוקב אחרי מתחרים 24/7, מזהה שינויי מחיר, ומעדכן את המחירים שלכם אוטומטית. או Agent שקורא מיילים נכנסים, מסווג אותם, ומטפל באלה שהוא בטוח בתשובה שלהם — ומעביר את השאר לצוות האנושי.

בפועל, Autonomous Agents ב-2026 עדיין דורשים Human-on-the-Loop (HOTL) — בן אדם שמפקח ומתערב כשצריך, אבל לא מאשר כל פעולה. ההבדל בין Human-in-the-Loop (HITL, אישור לכל פעולה) ל-HOTL (פיקוח כללי, התערבות רק בחריגים) הוא אחת ההחלטות העיצוביות החשובות ביותר בבניית Agent. נלמד את זה לעומק בפרק 14 (Safety & Guardrails).

6. Coding Agents — סוכני תכנות

Agent שכותב, בודק, ומתקן קוד. זה אחד הסוגים הכי מתקדמים, כי הוא יכול לרוץ בלולאה: כותב קוד → מריץ טסטים → מתקן שגיאות → חוזר. הדוגמאות הבולטות הן Claude Code, GitHub Copilot Workspace, Cursor Agent, ו-Devin.

דוגמה: Agent שמקבל issue ב-GitHub → קורא את הקוד הרלוונטי → כותב תיקון → מריץ את הטסטים → פותח Pull Request → מתקן לפי code review comments.

עובדה מעניינת: Coding Agents הם אולי ה-use case הכי "מוכח" נכון למרץ 2026. Claude Code, למשל, משמש מאות אלפי מפתחים ביום-יום לכתיבת קוד, debugging, ו-refactoring. Cursor (IDE מבוסס AI) דיווחה על $100M+ ARR. Devin של Cognition מנסה להיות "מפתח AI אוטונומי" אבל התוצאות עדיין מעורבות — דוגמה טובה ל-gap בין Agent שעוזר לבין Agent שמחליף.

7. Multi-Modal Agents — סוכנים רב-מודאליים

Agent שעובד עם יותר מסוג אחד של קלט: טקסט + תמונות + אודיו + וידאו. עם התקדמות Gemini 2.5 Pro ו-Claude Opus 4.6 ביכולות vision ו-audio, Agents multi-modal הפכו פרקטיים ב-2026.

דוגמה: Agent שמקבל צילום מסך של dashboard → מנתח את הגרפים → מזהה anomalies → מייצר דוח טקסט עם המלצות לפעולה. או Agent שמקבל תמונת חשבונית → חולץ את הנתונים (תאריך, סכום, ספק) → מכניס למערכת הנהלת חשבונות → שולח אישור.

סוג מיוחד של Multi-Modal Agent הוא Computer Use Agent — Agent שיכול לראות את המסך, ללחוץ על כפתורים, ולנווט ב-GUI כמו בן אדם. Anthropic פיתחה יכולת Computer Use ב-Claude, ו-OpenAI יש Operator. זו טכנולוגיה שמתפתחת מהר ב-2026 אבל עדיין בשלב early adoption.

עשו עכשיו 4 דקות

עברו על 7 סוגי ה-Agents ובחרו את שני הסוגים הכי רלוונטיים לעבודה שלכם. כתבו לכל אחד use case קונקרטי אחד מהיום-יום שלכם. לדוגמה: "Research Agent שמחקר מתחרים כל שבוע" או "Task Agent שמנתח לוגים מה-production".

תרגיל: מיפוי Agent Types ל-Use Cases 20 דקות
  1. רשמו 5 משימות שחוזרות על עצמן בעבודה שלכם השבועית
  2. לכל משימה — סווגו: האם היא Conversational, Task, Research, או Coding?
  3. לכל משימה — העריכו: כמה זמן היא לוקחת לכם ידנית? (בדקות)
  4. דרגו את 5 המשימות לפי "פוטנציאל אוטומציה" — איזו Agent היה מצליח לבצע הכי טוב?
  5. בחרו את המשימה מספר 1 — זו נקודת ההתחלה שלכם לפרויקט הקורס

תוצר: טבלה של 5 משימות עם סיווג, זמן ידני, ופוטנציאל Agent. תחזרו לטבלה הזו בפרק 15.

מתחיל 12 דקות חינם אסטרטגיה

Agents מול Chatbots, אוטומציות ו-Workflows

אחת הטעויות הנפוצות ביותר בתחום הזה היא להשתמש במילה "Agent" לכל דבר שקשור ל-AI. בואו נסדר את הבלאגן:

קריטריון Chatbot Automation (Zapier/Make) Workflow (n8n/Temporal) Agent
חשיבה / תכנון לא — תגובתי בלבד לא — trigger → action מוגבל — תנאים קבועים מראש כן — LLM מחליט בכל שלב
כלים חיצוניים לא (או מוגבל מאוד) כן — אינטגרציות קבועות כן — steps מוגדרים מראש כן — דינמי, LLM בוחר
לולאה לא לא (או לולאה קבועה) כן, אבל מסלול קבוע כן — דינמית
אמינות גבוהה (פשוט) גבוהה מאוד (דטרמיניסטי) גבוהה (ידוע מראש) בינונית (לא-דטרמיניסטי)
גמישות נמוכה בינונית בינונית גבוהה מאוד
עלות לפעולה אפס (כמעט) נמוכה נמוכה בינונית-גבוהה ($0.01-$10)
דורש debugging נמוך נמוך בינוני גבוה (לא-דטרמיניסטי)

ההבדל המפתח הוא אחד: לולאת חשיבה. Chatbot מגיב. Automation מבצעת. Workflow עוקב אחרי מסלול. Agent חושב, מחליט, פועל, ובודק את התוצאה. Agent מתמודד עם אי-ודאות — הוא לא צריך שמישהו יגדיר מראש מה לעשות בכל מצב.

דוגמה: אותו Use Case — 4 גישות שונות

תרחיש: לקוח כותב "שלחתי מוצר להחזרה לפני שבוע ועדיין לא קיבלתי זיכוי"

Chatbot: "מצטערים לשמוע. הנה קישור למדיניות ההחזרות שלנו: [link]" — לא עושה כלום, רק מפנה.

Automation (Zapier): שולח מייל אוטומטי "קיבלנו את פנייתך, נטפל בה תוך 3 ימי עסקים" — תגובה גנרית, לא בודק כלום.

Workflow (n8n): מחפש את ההזמנה → בודק סטטוס החזרה → אם "נתקבל" → שולח "הזיכוי יגיע תוך 48 שעות" → אם "לא נתקבל" → שולח "עדיין לא קיבלנו". מסלול קבוע, מוגדר מראש.

Agent: מחפש את ההזמנה → מגלה שהחבילה נתקעה בדואר ישראל → מזהה שלפי המעקב היא הגיעה למחסן אבל לא נסרקה → יוזם פנייה לצוות המחסן → ובמקביל שולח ללקוח: "מצאתי את הבעיה — החבילה הגיעה למחסן אבל עדיין לא נסרקה. פניתי לצוות לבדיקה מיידית. תקבלו עדכון תוך שעתיים." → עוקב אחרי הטיפול → שולח עדכון סופי כשהזיכוי מופעל.

ההבדל ברור: ה-Agent טיפל באירוע שאף אחד לא ציפה לו ושלא הוגדר ב-flowchart מראש. Automation לא ידעה שהחבילה נתקעה. Workflow לא ידע לפנות לצוות המחסן. רק Agent — עם חשיבה, כלים, ולולאה — יכול להתמודד עם המצב הזה.

טעות נפוצה: להשתמש ב-Agent כשאוטומציה מספיקה

למה זה מפתה: Agents נשמעים "חכמים" יותר. מי לא רוצה AI Agent במקום Zapier משעמם?

למה זה טעות: אם התהליך שלכם דטרמיניסטי — "כשמגיע מייל עם subject X, תשלח הודעה ב-Slack" — Agent הוא overkill. הוא יקר יותר, איטי יותר, ולא-דטרמיניסטי (מה שאומר שלפעמים הוא יעשה דבר שונה). Zapier יעשה את זה ב-100% מהמקרים, ב-100ms, בחינם.

כלל אצבע: אם אתם יכולים לצייר flowchart של התהליך עם כל ההסתעפויות — השתמשו באוטומציה או workflow. אם אתם לא יכולים — זה המקום של Agent.

מסגרת החלטה: Agent, Workflow, או Automation?

שאלה 1: האם התהליך דטרמיניסטי — ידוע מראש מה צריך לעשות בכל מצב?

שאלה 2: האם נדרשת הבנת שפה טבעית, חשיבה, או קבלת החלטות מורכבות?

שאלה 3: מה הסיכון של טעות? מה קורה אם ה-Agent מקבל החלטה לא נכונה?

עשו עכשיו 3 דקות

חשבו על 3 תהליכים בעבודה שלכם. לכל אחד, החליטו: Automation, Workflow, או Agent? השתמשו במסגרת ההחלטה שלמעלה. רשמו את התשובה.

מתחיל 10 דקות חינם מושג

למה עכשיו — הפיצוץ של 2025-2026

Agents היו רעיון כבר ב-2023. אז למה הם "עובדים" רק עכשיו? כי חמישה דברים נפלו למקום בו-זמנית:

1. המודלים הפכו חכמים מספיק

GPT-4 (2023) היה הראשון שהראה tool use אמין, אבל עם אחוזי הצלחה של 60-70% במשימות מורכבות. Claude Opus 4.6, GPT-5, ו-Gemini 2.5 Pro מציגים אחוזי הצלחה של 85-95% על אותן משימות. ההבדל הזה הוא קריטי: בתוכנה דטרמיניסטית, 95% ו-60% שניהם "באגים". ב-Agents, 95% אומר "אפשר לסמוך עליו עם guardrails ו-human fallback", ו-60% אומר "נקבל תוצאות אקראיות".

בנוסף לדיוק, המודלים ב-2026 גם יודעים מתי הם לא יודעים. Claude Opus 4.6, למשל, יש לו extended thinking — יכולת "לחשוב בקול" לפני שהוא פועל, מה שמפחית טעויות. GPT-5 שיפר דרמטית את ה-instruction following — הוא עוקב אחרי הוראות מורכבות בצורה אמינה יותר. Gemini 2.5 Pro מצטיין ב-multimodal — הוא יכול "לראות" מסכים, לקרוא מסמכים סרוקים, ולהבין תרשימים.

2. Tool Use הפך לתקן

בימים הראשונים של Agents (2023), כל framework הגדיר את ה-tool calling שלו בצורה שונה. LangChain היה לו format אחד, AutoGPT format אחר, וכל integration היה צריך להיכתב מאפס. זה היה כמו הימים שלפני USB — כל מכשיר עם חיבור אחר.

MCP — Model Context Protocol — הפך ל-"USB port" של עולם ה-AI. המטאפורה מדויקת: כמו ש-USB מאפשר לכל מכשיר להתחבר לכל מחשב, MCP מאפשר לכל Agent להתחבר לכל כלי. במקום שכל SDK יממש tool calling בצורה שונה, MCP מגדיר תקן פתוח שעובד עם כל מודל וכל SDK.

נכון למרץ 2026, MCP נמצא תחת Linux Foundation (באמצעות ה-AAIF — Agentic AI Foundation, שהוקם בדצמבר 2025), עם 97 מיליון הורדות חודשיות של ה-SDK ויותר מ-10,000 שרתי MCP פעילים. AAIF הוקם על ידי Anthropic, OpenAI, Google, Microsoft, AWS, ו-Block (לשעבר Square) — כלומר כל ספק גדול מאחורי התקן הזה. כל SDK גדול תומך ב-MCP באופן native. נלמד MCP לעומק בפרק 3.

במקביל, A2A (Agent-to-Agent protocol) מאפשר ל-Agents לדבר אחד עם השני. MCP הוא כמו USB — Agent מתחבר לכלי. A2A הוא כמו שיחת טלפון — Agent מדבר עם Agent אחר. שני הפרוטוקולים משלימים ולא מתחרים: Agent A משתמש ב-MCP כדי לגשת לכלים, וב-A2A כדי לשתף פעולה עם Agent B.

חשוב לדעת: A2A עדיין בגרסה v0.3 (pre-1.0), מה שאומר שהוא עלול להשתנות. MCP, לעומת זאת, כבר יציב ונמצא בשימוש נרחב. בקורס הזה נתמקד ב-MCP כי הוא essential, ונכסה A2A כ-emerging technology.

3. חלונות ההקשר התפוצצו

ב-2023, חלון הקשר טיפוסי היה 8K-32K tokens. ב-2026, Claude Opus 4.6 ו-GPT-5 תומכים ב-1M tokens, ו-Gemini 2.5 Pro מגיע עד 1M (עם אפשרות ל-2M). מה זה אומר בפועל? Agent יכול "לקרוא" codebase שלם, מסמך ארוך, או היסטוריית שיחה של חודשים — בלי "לשכוח" חלקים. זה פותח use cases שהיו בלתי אפשריים קודם, כמו code review agent שמבין את כל הפרויקט, לא רק את ה-diff.

4. העלויות צנחו

מחירי ה-LLM ירדו כ-80% ביחס ל-2024. Anthropic אפילו ביטלה את התוספת על long-context — מיליון tokens ב-Opus 4.6 עולה אותו דבר per-token כמו 1,000 tokens. בנוסף, batch processing (עיבוד אצוות) מוריד עוד 50%, ו-prompt caching חוסך עוד 80% על פרומפטים שחוזרים. סה"כ: Agent שהיה עולה $10 לסשן ב-2024 עולה $1-2 ב-2026.

~80%

ירידה במחירי LLM ביחס ל-2024 — מה שהופך Agents לכדאיים כלכלית ב-production

5. Durable Execution נכנס ל-mainstream

Durable Execution פותר בעיה קריטית: מה קורה כש-Agent קורס באמצע משימה? ב-2023, התשובה הייתה "מתחילים מחדש". ב-2026, AWS Step Functions, Cloudflare Durable Objects, Vercel Workflow DevKit, ו-LangGraph עם Temporal מאפשרים ל-Agent לשרוד קריסות, לחכות לאישור אנושי (שעות או ימים), ולהמשיך מאיפה שעצר. זה מה שהופך Agents מ-"demo מגניב" ל-"כלי production אמיתי".

נתאר תרחיש: Agent שמעבד הזמנת רכש צריך: (1) לבדוק תקציב, (2) לשלוח לאישור מנהל, (3) לחכות לאישור (אולי יום-יומיים), (4) לבצע הזמנה, (5) לשלוח אישור. בלי durable execution, השרת צריך לרוץ 48 שעות ברציפות ולשמור state בזיכרון. עם durable execution, ה-Agent "נרדם" אחרי שלב 2, ו"מתעורר" כשהאישור מגיע — גם אם השרת הופעל מחדש, עודכן, או עבר לenvironment אחר בינתיים.

6. Enterprise Adoption — ארגונים גדולים נכנסים

זה לא רק סטארטאפים. Uber משתמשת ב-LangGraph ל-internal agent workflows. LinkedIn בנתה agents למיון קורות חיים. Klarna (חברת fintech שבדית-ישראלית) דיווחה שה-AI agent שלה מבצע את העבודה של 700 נציגי שירות לקוחות. כל חברת Fortune 500 מפעילה לפחות pilot אחד של AI agents. לפי Gartner, 40% מאפליקציות enterprise יכללו agent capabilities עד סוף 2026.

המשמעות עבורכם: ידע בבניית Agents הוא כבר לא "nice to have" — זה skill שמבדיל מפתחים מבוקשים ממפתחים רגילים. חברות מגייסות "AI Agent Engineers" בשכר גבוה משמעותית ממפתחים מסורתיים.

7. Vibe Coding — מפתחים בלי לדעת לכתוב קוד

תנועת ה-"Vibe Coding" — מונח שטבע Andrej Karpathy — מתארת אנשים שבונים תוכנה באמצעות שיחה עם AI בלי לכתוב קוד מאפס. כלים כמו Claude Code, Cursor, ו-Replit מאפשרים למנהלי מוצר, אנליסטים, ומשווקים לבנות Agents בסיסיים שפותרים בעיות אמיתיות — גם בלי ניסיון בפיתוח.

הקורס הזה מיועד למפתחים, אבל שווה לדעת שהקהל שמשתמש ב-Agents מתרחב מעבר למפתחים מסורתיים. זה אומר גם שה-Agents שאתם בונים צריכים להיות user-friendly — כי המשתמשים שלהם לא בהכרח מפתחים.

עשו עכשיו 3 דקות

פתחו את דף התמחור של Anthropic (anthropic.com/pricing) או OpenAI (openai.com/pricing). בדקו כמה עולה 1M input tokens במודל הכי חזק. כפלו ב-10 (כ-10 קריאות ל-Agent טיפוסי). זו העלות המשוערת של סשן Agent מורכב. האם זה סביר עבור ה-use case שלכם?

בינוני 15 דקות חינם אסטרטגיה

הנוף הנוכחי — מרץ 2026

הנוף של Agent SDK-ים ב-2026 עשיר, מבלבל, ומשתנה מהר. בואו נסדר אותו בצורה ברורה.

יש שלוש קטגוריות של כלים: Provider SDKs — מי שמייצר את המודלים ונותן לכם גישה ישירה (Anthropic, OpenAI, Google), Framework SDKs — כלים שעוטפים את המודלים ומוסיפים יכולות כמו זיכרון, כלים וריבוי סוכנים (LangGraph, CrewAI, Vercel AI SDK), ו-פרוטוקולים — תקנים שמאפשרים לסוכנים לדבר עם כלים חיצוניים (MCP, A2A). אתם לא צריכים ללמוד את כולם — בפרק 12 תבחרו 2-3 שמתאימים לכם. הטבלאות למטה הן מפת התמצאות, לא רשימת קריאה.

Provider SDKs — מי שמייצר את המודלים

SDK ספק שפות חוזק מרכזי
Claude Agent SDK Anthropic Python, TypeScript בטיחות, extended thinking, computer use
OpenAI Agents SDK OpenAI Python, TypeScript Voice agents, broad model selection, guardrails מובנים
Google ADK Google Python, TypeScript, Java, Go Multi-agent, A2A native, Gemini integration, הכי הרבה שפות

Framework SDKs — כלים שעובדים עם מודלים מרובים

SDK שפות חוזק מרכזי מתאים ל...
Vercel AI SDK v6 TypeScript Streaming UI, DurableAgent, DevTools Next.js devs, web apps, real-time UI
LangGraph 1.0 Python, TypeScript Graph-based workflows, durable execution, production-proven Complex workflows, enterprise
CrewAI Python Multi-agent teams, role-based agents, Studio UI Multi-agent scenarios, no-code adjacent
Microsoft Agent Framework Python, C#/.NET AutoGen + Semantic Kernel merged, enterprise .NET shops, Azure users
Mastra TypeScript Server adapters (Express, Hono, Fastify), AI SDK v6 TS-native teams, API-first
Pydantic AI Python Type-safe, native durable execution, graph capabilities Type-safety lovers, Python purists

הנתונים — השוק ב-2026

כמה מספרים שמסבירים למה כל חברת טכנולוגיה רצה לשוק ה-Agents:

1,445%

עלייה בפניות enterprise בנושא Multi-Agent Systems לפי Gartner — ו-40% מאפליקציות enterprise צפויות לכלול Agents עד סוף 2026

השוק מתגבש סביב כמה מגמות ברורות. ראשית, קונסולידציה: Microsoft מיזגה את AutoGen עם Semantic Kernel ליצירת Microsoft Agent Framework אחד. IBM מיזגה את ACP (Agent Communication Protocol) לתוך A2A. שחקנים קטנים יותר נבלעים או משתלבים. שנית, סטנדרטיזציה: MCP ו-A2A עברו לLinux Foundation, מה שאומר governance ניטרלי וקבלה רחבה. שלישית, Vibe Coding: תנועה הולכת וגדלה של אנשים שאינם מפתחים מסורתיים אבל בונים Agents בעזרת AI — משתמשים ב-Claude Code, Cursor, או Replit כדי לבנות בלי לדעת לכתוב קוד מאפס.

הפרוטוקולים — MCP ו-A2A

שני פרוטוקולים שכל מפתח Agents צריך להכיר:

מסגרת החלטה: איזה SDK לבחור?

אין SDK "הכי טוב" — יש SDK שמתאים לכם. הנה 5 שאלות שיעזרו לבחור:

שאלה 1: באיזו שפה אתם כותבים?

שאלה 2: איזה מודל (LLM) אתם מעדיפים?

שאלה 3: כמה מורכב ה-use case?

טעות נפוצה: לבחור SDK לפי hype במקום לפי צורך

למה זה מפתה: הפוסט האחרון ב-Twitter אמר ש-X הוא ה-SDK הכי טוב. 500 לייקים. חייבים לנסות.

מה לעשות במקום: בחרו לפי שלוש שאלות בלבד: (1) באיזו שפה אני כותב? (2) באיזה מודל אני משתמש? (3) מה רמת המורכבות? SDK שעונה על שלושת השאלות האלה טוב יותר מ-SDK עם 100K כוכבים ב-GitHub שלא מתאים לסטאק שלכם.

עשו עכשיו 5 דקות

ענו על 3 השאלות ממסגרת ההחלטה: (1) שפה? (2) מודל מועדף? (3) מורכבות? רשמו את ה-SDK-ים שמתאימים לכם. תחזרו לבחירה הזו בפרק 4 כשנתקין הכל.

מתחיל 8 דקות חינם מושג

האקוסיסטם הישראלי

ישראל אינה רק צרכנית של טכנולוגיית AI — היא אחת המייצרות המובילות. הנה מה שצריך לדעת:

חברות מפתח

הצינור — מ-8200 לסטארטאפים

יחידות הטכנולוגיה של צה"ל — בראשן 8200 (SIGINT — ריגול אותות) ו-יחידה 81 (טכנולוגיות סייבר) — מהוות את צינור הטאלנט המרכזי לאקוסיסטם ה-AI הישראלי. בוגרי היחידות האלה מגיעים עם ניסיון ב-ML, עיבוד שפה טבעית, ומערכות real-time — בדיוק הכישורים שצריך לבניית Agents.

הטכניון, אוניברסיטת תל אביב, והאוניברסיטה העברית מזינים את האקדמיה. ישראל מונה כ-234 חברות AI באזור תל אביב לבד, מתוכן 136 מגובות הון סיכון, עם סך גיוסים של מעל $5.5B.

שיקולים מיוחדים לפיתוח בישראל

234

חברות AI באזור תל אביב לבד — מתוכן 136 מגובות הון סיכון עם סך גיוסים של מעל $5.5B

עשו עכשיו 3 דקות

חפשו "agentic AI Israel" או "AI agents Israel startups" ב-Google. כמה חברות ישראליות בתחום אתם מצליחים לזהות? רשמו 3 שלא הזכרנו כאן.

מתחיל 10 דקות חינם מושג

ציפיות מציאותיות — מה Agents יכולים ומה לא

בואו נהיה כנים לגבי מה Agents יכולים ולא יכולים לעשות במרץ 2026. מי שמוכר לכם "Agent שמחליף 10 עובדים" — משקר.

במה Agents מצטיינים

טיפ מקצועי: Model Routing חוסך 90%+ בעלויות

לא כל פעולה של Agent דורשת את המודל הכי יקר. טכניקת Model Routing משתמשת במודל זול (כמו Haiku ב-$0.25/1M tokens) לניתוב ומשימות פשוטות, ובמודל חזק (כמו Opus ב-$5/1M tokens) רק לחשיבה מורכבת. לדוגמה: Agent שירות לקוחות — Haiku מסווג את הפנייה (פשוט/מורכב), ורק פניות מורכבות מגיעות ל-Sonnet. תוצאה: 80% מהפניות מטופלות ב-5% מהעלות. נלמד את זה בפרק 2 (בחירת מודל) ובפרק 15 (production implementation).

במה Agents מתקשים

המספרים שצריך לדעת

מדד ערך טיפוסי (מרץ 2026) למה חשוב
אחוז הצלחה במשימות מורכבות 70-90% Agent שמצליח 70% מהזמן דורש fallback אנושי ל-30%
עלות סשן Agent מורכב $0.50-$10 חשבו אם זה שווה את ה-ROI — Agent ב-$5 ששומר 30 דקות עבודה? כדאי
Latency לפעולה בודדת 2-15 שניות Agent לא מתאים לתגובה ב-real-time של < 1 שנייה
זמן סשן Agent טיפוסי 10 שניות — 5 דקות משימות ארוכות דורשות durable execution

המטאפורה הטובה ביותר: Agents הם מתמחים מוכשרים, לא עובדים בכירים. הם מבצעים עבודה מצוינת אם תגדירו להם בדיוק מה לעשות, תיתנו להם את הכלים הנכונים, ותפקחו עליהם. אם תזרקו להם בעיה פתוחה בלי הנחיות — הם עלולים לבזבז זמן וכסף.

תרחיש עלות: Research Agent סשן אחד

נניח ש-Agent מחקר מבצע סשן אחד — "תחקור את שוק הביטוח בישראל ותייצר דוח":

עם Claude Sonnet 4.6 (~$3/1M input, ~$15/1M output): $0.24 + $0.53 = ~$0.77 לסשן. עם prompt caching על ה-system prompt (שחוזר על עצמו): עוד 80% הנחה על חלק מה-input. עלות סופית: ~$0.50-$0.80. זה עלות של כוס קפה — עבור דוח שהיה לוקח לכם שעה לכתוב.

טעות נפוצה: להתעלם מעלויות עד שהחשבון מגיע

למה זה מפתה: "זה רק כמה סנטים לסשן, מה כבר יכול לקרות?"

מה יכול לקרות: באג שגורם ל-Agent ללולאה — 100 iterations במקום 5 — יכול לייצר חשבון של $500+ בלילה אחד. Agent שרץ ב-production עם 1,000 משתמשים ביום = $500-$5,000 ביום בעלויות API.

מה לעשות: הגדירו billing alerts מיום 1. הגדירו max_iterations ו-token budget לכל Agent. לוגו את העלות לכל סשן. תמיד.

טעות נפוצה: להתייחס ל-Agent כאל תוכנה דטרמיניסטית

למה זה מפתה: כמפתחים, אנחנו רגילים שקוד עובד 100% מהזמן. אם כתבנו את הפונקציה נכון, היא תמיד מחזירה את התוצאה הנכונה.

למה זה טעות: Agents הם סטוכסטיים — הם לא דטרמיניסטיים. אותו input יכול להוביל לoutput שונה בהרצות שונות. שיעור כשלון של 10-30% במשימות מורכבות הוא נורמלי.

מה לעשות: תכננו מראש ל-graceful degradation — retries, human fallback, ו-error handling. Agent שמדווח "אני לא בטוח בתשובה — תבדקו ידנית" טוב יותר מ-Agent שנותן תשובה שגויה בביטחון.

עשו עכשיו 3 דקות

חזרו ל-use case שרשמתם קודם. שאלו את עצמכם: מה קורה אם ה-Agent נכשל 20% מהמקרים? האם זה עדיין שווה? מה ה-fallback? רשמו תשובה בשורה אחת.

מתחיל 8 דקות חינם מושג

מה נבנה בקורס הזה

הקורס הזה הוא לא רק תיאוריה — הוא מוביל ל-4 פרויקטים שלמים שתבנו מאפס. כל פרויקט משתמש ב-SDK-ים שונים כדי שתוכלו להשוות גישות בפועל:

פרויקט 1: Customer Support Agent (פרק 15)

Agent שמטפל בפניות שירות לקוחות: מקבל ticket, מבין את הבעיה, מחפש פתרון ב-knowledge base, מבצע פעולות (החזר כספי, עדכון חשבון), ומעביר ל-human אם הוא לא בטוח. כולל routing, specialist agents, ו-escalation.

סוג Agent: Conversational + Orchestrator | SDK-ים: Claude Agent SDK, Vercel AI SDK | רמת קושי: בינוני

פרויקט 2: Research & Analysis Agent (פרק 16)

Agent שמבצע מחקר: מקבל נושא, מחפש ב-5+ מקורות במקביל, מסנתז את הממצאים, בודק עובדות, ומייצר דוח מסודר עם citations. כולל parallel search ו-fact-checking.

סוג Agent: Research | SDK-ים: OpenAI Agents SDK, LangGraph | רמת קושי: בינוני-מתקדם

פרויקט 3: Marketing Automation Agent (פרק 17)

Agent שמנהל שיווק: יוצר תוכן (פוסטים, מודעות), מנטר מתחרים, מנתח ביצועי קמפיינים, ומציע אופטימיזציות. כולל content creation, ad management, ו-competitor monitoring.

סוג Agent: Task + Autonomous | SDK-ים: CrewAI, Google ADK | רמת קושי: מתקדם

פרויקט 4: Code Review & DevOps Agent (פרק 18)

Agent שבודק קוד ומנהל deployments: עובר על Pull Requests, מזהה בעיות, מציע תיקונים, ומנהל deployment pipeline. כולל PR review, deployment automation, ו-monitoring.

סוג Agent: Coding + Task | SDK-ים: Claude Agent SDK, Pydantic AI | רמת קושי: מתקדם

תרגיל: בחירת הפרויקט שלכם 15 דקות
  1. קראו את תיאורי 4 הפרויקטים למעלה
  2. בחרו את הפרויקט שהכי רלוונטי לעבודה שלכם
  3. כתבו 5 שורות שמתארות את ה-use case הספציפי שלכם — מה ה-Agent יעשה? עם אילו מערכות הוא יתממשק? מי ישתמש בו?
  4. הגדירו 3 "תרחישי בדיקה" — 3 דוגמאות ספציפיות של משימות שה-Agent צריך לבצע
  5. שמרו את המסמך — תחזרו אליו שוב ושוב לאורך הקורס

תוצר: מסמך "Agent Brief" של הפרויקט שלכם — use case, מערכות, 3 תרחישי בדיקה.

עשו עכשיו 2 דקות

עוד לא בטוחים איזה פרויקט לבחור? חשבו: איזו משימה בעבודה שלכם גוזלת לכם הכי הרבה זמן ושנואה עליכם? זו כנראה התשובה. Agent טוב לא מחליף עבודה מעניינת — הוא מבטל עבודה משעממת.

מתחיל 5 דקות חינם מושג

מפת דרכים

הקורס בנוי ב-5 חלקים שמובילים אתכם מ"מה זה Agent?" ל-"Agent שרץ ב-production":

Part 1: Foundation — הבסיס (פרקים 1-4)

אתם נמצאים כאן. בפרק הנוכחי הבנתם מה Agents הם ולמה הם חשובים. בפרק 2 נצלול לארכיטקטורה — איך הלולאה באמת עובדת, מה זה memory, מה זה planning. בפרק 3 נלמד MCP — הפרוטוקול שמאפשר ל-Agents להתחבר לכלים. בפרק 4 נתקין את סביבת הפיתוח — כל ה-SDK-ים, מפתחות API, וכלי עבודה.

Part 2: The SDKs — צלילה עמוקה (פרקים 5-10)

פרק לכל SDK מרכזי: Claude Agent SDK (5), OpenAI Agents SDK (6), Vercel AI SDK (7), Google ADK (8), LangGraph (9), ו-CrewAI + Survey (10). בכל פרק נבנה את אותו Agent — "Research Assistant" שמחפש מידע, מסכם, ומחזיר דוח — כדי שתוכלו להשוות ישירות: ergonomics, ביצועים, חוויית פיתוח, ו-debugging. לא חייבים לעבור על כל 6 הפרקים — בחרו 2-3 לפי ה-SDK שרלוונטי לכם. זמן: 20-25 שעות.

Part 3: Patterns — דפוסי עבודה (פרקים 11-14)

עיצוב כלים (11 — Tool Design הוא אולי הפרק הכי חשוב בקורס, כי tool descriptions הם הגורם #1 שמשפיע על דיוק Agent), זיכרון ו-RAG (12), Multi-Agent (13), ו-Safety & Guardrails (14). זה החלק שהופך אתכם ממי שיודע להשתמש ב-SDK למי שיודע לבנות Agents שעובדים ב-production בצורה אמינה.

Part 4: Projects — 4 פרויקטים מלאים (פרקים 15-18)

Customer Support (15), Research (16), Marketing (17), DevOps (18). כל פרויקט בנוי מאפס ל-production-ready, עם קוד שלם, deployment instructions, ו-monitoring setup. תבחרו לפחות פרויקט אחד לבנות מא' ועד ת' — זו הדרך הכי טובה ללמוד. זמן: 20-25 שעות.

Part 5: Production — Deploy, Monitor, Scale (פרקים 19-20)

Deployment ו-Monitoring (19), אסטרטגיית Agents ותוכנית פעולה (20). מ-development ל-production.

איך להשתמש בקורס הזה

מתחילים מאפס: עברו על כל פרק בסדר. אל תדלגו — כל פרק בונה על הקודם.
יש לכם ניסיון ב-LLM/APIs: קראו פרקים 1-3 מהר, צללו עמוק מפרק 4.
אתם כבר בונים Agents: קפצו לפרקים 11-14 (Patterns) ו-15-18 (Projects). השתמשו ב-1-3 כ-reference.
לכולם: אל תנסו לעבור את הקורס ביום. 2-3 שעות בשבוע = סיום ב-3-4 חודשים. עלות API כוללת: $100-300 לכל התרגילים.

תרגיל: Agent Stack Map — מיפוי השכבות 15 דקות
  1. ציירו (על נייר או בכלי דיגיטלי) את "מגדל ה-Agent" עם 7 שכבות: Model → SDK → Tools → Memory → Orchestration → Interface → Observability
  2. לכל שכבה — רשמו דוגמה אחת של טכנולוגיה: Model = "Claude Sonnet 4.6", SDK = "Claude Agent SDK", וכו'
  3. סמנו בצבע את השכבות שאתם כבר מכירים (ירוק), שמעתם עליהן (צהוב), וחדשות לכם (אדום)
  4. לכל שכבה "אדומה" — רשמו באיזה פרק בקורס היא מכוסה

תוצר: Agent Stack Map אישי — תמונה ויזואלית של מה אתם יודעים ומה צריך ללמוד. שמרו אותה.

תרגיל: תכננו סוכן AI ראשון 20 דקות

בתרגיל הזה תתכננו סוכן AI — עדיין לא תבנו אותו, אבל תגדירו בדיוק מה הוא צריך לעשות.

  1. בחרו בעיה: חשבו על משימה שחוזרת על עצמה בעבודה שלכם — למשל: סיכום אימיילים, ניתוח מסמכים, מענה לשאלות נפוצות, ניטור מתחרים
  2. הגדירו את הלולאה: כתבו את 4 השלבים של הסוכן לפי מודל ReAct — (1) מה הוא קולט, (2) מה הוא חושב, (3) מה הוא עושה, (4) מה הוא בודק
  3. רשמו כלים: אילו כלים הסוכן צריך? חיפוש באינטרנט? קריאת קבצים? שליחת הודעות? כתבו רשימה של 3-5 כלים
  4. סווגו: לפי הטקסונומיה מהפרק — איזה סוג סוכן זה? (משימה / מחקר / שיחה / אורקסטרציה)
  5. העריכו: באיזה רמה בספקטרום הסוכניות הוא נמצא? (1-5). למה לא רמה גבוהה יותר?

תוצר: מסמך תכנון סוכן בן עמוד אחד — בעיה, לולאה, כלים, סוג, רמת אוטונומיה. תחזרו אליו בפרק 4 כשתתחילו לבנות.

שגרת עבודה — פרק 1
תדירותמשימהזמן
יומיקראו פוסט אחד על Agents — Twitter/X, blog, newsletter (Latent Space, The Batch, AI Engineering)5 דק'
שבועינסו chatbot אחד או Agent product — Claude, ChatGPT, Gemini, Copilot. רשמו: מה הוא עושה טוב? מה לא?15 דק'
שבועיבדקו GitHub trending ב-topic "agents" — איזה פרויקטים חדשים עולים?10 דק'
שבועיעדכנו את רשימת ה-use cases שלכם — הוסיפו רעיונות חדשים, מחקו כאלה שלא רלוונטיים5 דק'
חודשיבדקו עדכוני SDK — האם יצאה גרסה חדשה? יש breaking changes?20 דק'
חודשיסקרו את מחירי ה-API — האם ירדו? השתנו? יש ספק חדש שכדאי לבדוק?10 דק'
אם אתם עושים רק דבר אחד מהפרק הזה 5 דקות

כתבו משפט אחד שמתאר Agent שהייתם רוצים לבנות. לדוגמה: "Agent שקורא את המיילים שלי כל בוקר ומכין לי סיכום של מה דחוף ומה יכול לחכות." שמרו את המשפט הזה — הוא הכוכב הצפוני של הקורס בשבילכם.

בדוק את עצמך — 5 שאלות
  1. מהם שלושת המרכיבים שהופכים LLM ל-Agent? (רמז: מוח + ידיים + ...)
  2. מה ההבדל בין Agent ל-Workflow? (רמז: חשבו על "מי מחליט מה לעשות בכל שלב")
  3. מדוע AutoGPT (2023) נכשל ולמה ב-2026 Agents עובדים? (רמז: 5 שינויים)
  4. מה ההבדל בין MCP ל-A2A? (רמז: USB מול שיחת טלפון)
  5. מתי Agent הוא לא הפתרון הנכון? (רמז: חשבו על דטרמיניזם, עלות, וסיכון)

עברתם 4 מתוך 5? מצוין — אתם מוכנים לפרק הבא.

סיכום הפרק

בפרק הזה למדתם ש-AI Agent הוא LLM + Tools + Loop — לא יותר ולא פחות. ראיתם את ההיסטוריה ממערכות מומחה ב-1960 ועד SDK-ים production-ready ב-2026, והבנתם למה השנה הזו היא נקודת המפנה: מודלים חכמים מספיק, MCP כתקן פתוח, עלויות שירדו 80%, context windows של מיליון tokens, durable execution, ו-enterprise adoption מאסיבי.

הכרתם 7 סוגי Agents (conversational, task, research, orchestrator, autonomous, coding, multi-modal) עם דוגמאות קונקרטיות. למדתם מתי Agent עדיף על automation/workflow ומתי הוא overkill יקר. מיפיתם את נוף ה-SDK-ים — Provider SDKs (Claude Agent SDK, OpenAI Agents SDK, Google ADK) ו-Framework SDKs (Vercel AI SDK, LangGraph, CrewAI, Mastra, Pydantic AI) — ואת הפרוטוקולים (MCP ו-A2A). והכרתם את האקוסיסטם הישראלי — מ-AI21 ועד 8200.

הנקודה המרכזית: Agents הם לא קסם — הם מתמחים מוכשרים שדורשים הגדרה ברורה, כלים טובים, ופיקוח. אם תזכרו את המשפט הזה, אתם כבר לפני 80% ממי שמתחיל לעבוד עם Agents.

בפרק הבא נצלול לארכיטקטורה: איך הלולאה באמת עובדת בתוך ה-SDK, מה זה memory (short-term, long-term, working), איך Agents מתכננים, ותבנו Agent מינימלי ב-20 שורות קוד — בלי שום SDK, רק API calls.

צ'קליסט — סיכום פרק 1