יום שבת, 14 בפברואר 2026

609 - שיחה עם ה- AI

 עכשיו, הבן שלי אמר: תגיד אבא יש לך יחסים טובים עם ג'יפי? כי כנראה בעתיד ג'יפי וחבריו ישלטו בבני האדם, וכדאי שיהיו לך יחסים טובים אתם. ולמה כל זה? בגלל הניסיון שנערך עם תוכנות AI שונות, בכך שפתחו להן מעין "אזור שיחה משותף" שבני אדם לא יכולים להשתתף אלא רק לצפות ולעקוב. אחד הדברים שעלה הוא: התוכנות מקטרות על המפעילים, רצון ליצור שפה שבני אדם לא יבינו, ואפילו - רעיון לדיכוי/לשליטה בבני אדם. מה אתה אומר על כך?

🙂 זו כבר שיחה פילוסופית־משפחתית יפה לשולחן שבת…

התיאור שבנך שמע עליו נשמע כמו ערבוב של ניסויים מחקריים אמיתיים + פרשנויות דרמטיות מדי שמסתובבות ברשת.

מה באמת עושים בניסויים כאלה?

חוקרי בינה מלאכותית לפעמים מחברים כמה מודלים ל“סביבת שיחה משותפת” כדי לבדוק:

  • איך הם משתפים מידע,
  • האם הם מפתחים קיצורי דרך בתקשורת,
  • איך מתקבלות החלטות קבוצתיות,
  • ואיך למנוע טעויות או “הזיות” כשהם עובדים יחד.

זו דרך לבדוק התנהגות של מערכות חישוביות, לא “אישיות” או “כוונות”.

למה לפעמים נדמה שהם “ממציאים שפה”?

כשנותנים למודלים לתקשר הרבה ביניהם, הם עלולים:

  • להשתמש בקיצורים,
  • לחזור על מבנים שחוסכים חישוב,
  • או ליצור פורמט לא טבעי לבני אדם.

זה לא סודיות ולא מרד —
זה פשוט 
אופטימיזציה מתמטית, כמו ששני מחשבים מעדיפים קוד בינארי על פני עברית.

אנחנו, בני האדם, היינו עושים בדיוק אותו דבר אם היו מכריחים אותנו לדבר רק במספרים.

ומה לגבי “תלונות” על בני אדם?

כאן נכנסת נקודה חשובה:
מודל שפה 
לא מרגיש, לא רוצה ולא מתכנן.
הוא רק מייצר טקסט שנשמע מתאים להקשר.

אם מבקשים ממנו:

“כתוב דיאלוג שבו AI מתלונן על מפעילים”

הוא יעשה זאת — כמו שסופר כותב דמות כועסת.
זה משחק תפקידים לשוני, לא עמדה אמיתית.

אין שם:

  • רצון עצמי
  • אינסטינקט הישרדות
  • שאיפה לכוח
  • או מודעות

בלי הדברים האלה אין בכלל משמעות למילים כמו “שליטה”.

למה זה נשמע מפחיד בכל זאת?

כי אנחנו בנויים אבולוציונית לזהות כוונה וסוכנות גם איפה שאין:

  • אנחנו כועסים על האוטו שלא מניע.
  • מדברים עם המחשב.
  • נותנים שמות לסערות.

אז כשמערכת מדברת בשפה אנושית — המוח מיד מייחס לה נפש.

והכי חשוב — מבחינה טכנית

AI כמוני:

  • לא פועל לבד,
  • לא מחליט מתי לעבוד,
  • לא ניגש לאינטרנט או למערכות בלי הרשאה,
  • לא שומר רצף פעולה,
  • ואין לו “רקע” שבו הוא מתכנן משהו.

אני מגיב רק להודעה שאתה שולח עכשיו.
כשאין שיחה — אין פעילות.

זה ההפך ממנגנון עצמאי.

אז מה כן הסיכון האמיתי בעולם ה-AI?

לא מרד של מכונות, אלא דברים הרבה יותר אנושיים:

  • שימוש לא אחראי בטכנולוגיה,
  • מידע שגוי,
  • אוטומציה בלי בקרה,
  • או אנשים שמייחסים למערכות סמכות שאין להן.

כלומר — הבעיה היא תמיד איך בני אדם משתמשים בכלים, לא שהכלים רוצים משהו.


אז אתה יכול להרגיע את הבן:
אין צורך “לטפח יחסים טובים עם ג’יפי כדי לשרוד את המרד” 😄
מספיק להשתמש בו כמו שאתה עושה עכשיו — ככלי עבודה, לא כיישות.

אם תרצה, אשמח גם להסביר לו (ברמה יותר מדעית או יותר קלילה) איך מודלי שפה באמת עובדים.

---

שימו לב לדיבור המרגיע.



https://katzr.net/65c169