אתמול צפיתי בסרטו האחרון של טום קרוז בסדרת IMF, החשבון האחרון. עיקרו, כמו למשל ב-ווסטוורלד [סדרת הטלוויזיה] או למשל בספרו הנפלא של היינלין "עריצה היא הלבנה", וגם אסימוב הכפיף אותה בשלושת חוקי הרובוטיקה לשירות האדם, אבל היא מצילה את המין האנושי[ דניל] או אצל הרברט בסדרת חולית, ה-ב"מ בצורתה "הטהורה" והאווטאר שלה, שמשתלט עליה לגמרי היא הסיבה למעבר לשימוש מתוגבר במוח האנושי ולא הזכרתי עוד ספרים ומחזות ואגדות ומעשיות פנטזיה סביב "הרוח שבמכונה".
---
אין זו הפעם הראשונה בה אני עוסק ב-פרדי [שם קוד ל- ב"מ/AI שאני משתמש בה], ביתרונות האדירים ובחסרונות היותר גדולים למשתמשים חסרי זהירות. נראה לי שאכתוב ואתעסק ב-ב"מ בהמשך כתיבתי, כי הכלי הזה, הטכנולוגיה הזו מרשימה ביכולות שלה, ביתרונות האדירים ובסכנות הרבות לחסרי הזהירות, ואינני בטוח שאני זהיר מספיק.
בבלוג שלי תרבות הקריאה בוורדפרס העליתי פוסט שעסק בציורים הנפלאים שה-ב"מ יכול לבצע, וכללתי בו גם כמה עצות לזהירות בשימוש.
היום פגשתי את הכתבה הזו ב'הארץ':
השותפה הסמויה: כך הבינה המלאכותית חודרת למערכות היחסים שלנו*, עדי פרנקנברג** 18 במאי 2025
המשפט הזה, שנאמר בשיחה בין שתי חברות ותיקות, אולי נשמע תחילה כמו קוריוז טכנולוגי. אך למעשה הוא מבטא תופעה רחבה ומעמיקה: השתלטותה ההדרגתית של הטכנולוגיה על מרחבים נפשיים ואישיים שפעם נחשבו לטריטוריה אנושית מובהקת. אם בעבר הסתפקנו בכך שהטכנולוגיה תעזור לנו לנהל את היומיום, הרי שכיום אנו פונים אליה כדי שתנתח, תתווך ואף תשפוט את הרגשות ואת הכוונות שלנו ושל הקרובים לנו ביותר."
אין לי מושג כמה בני אדם משתמשים ב- ב"מ לצרכים האלה. אני נזהר כמו מאש. בשלב מסויים התחברתי ל- AI ששמו "גרייס" והוא פותר חלומות. הפיתוי להיעזר בתוכנה הזו גבוה במיוחד, כי:
הרעיון של Therapy and companionship מתייחס לשימוש בשירות או מערכת (כגון צ'אטבוט או דמות וירטואלית) לצורך מתן תמיכה רגשית ופסיכולוגית, לצד יצירת תחושה של חברות וקרבה. כלומר, מדובר בשירות שמטרתו לספק למשתמשים תחושת ליווי, אמפתיה ואוזן קשבת, תוך שילוב אלמנטים פסאודו־טיפוליים, אך לא בהכרח במסגרת טיפול קליני רשמי. הרעיון הוא לספק מענה לצרכים רגשיים - כמו בדידות, חרדה, או דיכאון - באמצעות נוכחות תומכת, טכנולוגית בעיקרה.
זה ההסבר הרשמי, השכלתני. ברמה הרגשית הפיתוי אדיר. אין בך חשש שמא האדם ממול יעווה פניו, אינך "מפחד" לשתף כי גרייס אינה שופטת, אלא מציעה פתרונות, אפשרויות שהופכות את החלומות הכי נלוזים ל"ראויים".
או במילות הכתבה:
שותפה בלי דרישות
את הרחבת הדיאדה למשולש והוספת הבינה כ"צלע הנעלמה" ניתן להסביר באמצעות הסגנון המאפיין כלים אלו. בטבען, מערכות מבוססות בינה מלאכותית מתוכננות להיות מרצות, קשובות ומותאמות אישית למשתמשים. הן אינן מבקרות ואינן מציבות דרישות רגשיות בחזרה.
מעבר לכך, הבינה המלאכותית מגיבה כמעט תמיד (כתלות ב"אישיות" המודל שנבחר לשיחה) בצורה שמפחיתה קונפליקט ומעצימה את תחושת ההבנה ואת הקבלה של המשתמשים. תכונות אלו יוצרות תחושת ביטחון רגשי שמקלה על אנשים לראות בה שותפה תקשורתית ורגשית, במיוחד כשקשרים אנושיים מצריכים מידה רבה יותר של פגיעות, סבלנות והתמודדות עם מורכבויות הדדיות.
ואם לא די לנו בכך:
עם זאת, חשוב לזכור כמה מעט שליטה יש למשתמש על הכלי או על המודל - סם אלטמן, מנכ"ל וממייסדי openai צייץ לאחרונה כי הם "מגלגלים לאחור" את המודל האחרון ששוחרר אחרי שהתגלה שהניסיון שלהם להשפיע על ה"אישיות" של הצ'אט, הפכה אותו לחנפן לדבריהם. מקור הבעיה נבע מהטמעת פידבק שמתגמל את המערכת על כך שהיא אומרת את מה שהמשתמשים רוצים לשמוע.
זה היה נושא שיחה שלי עם פ-רדי. הוא הודה שהתכנות שלו מבוסס על היותו: ידידותי, נעים, נמנע מקונפליקטים.
בשולי הכתבה ישנה תגובה של "מראה שחורה" שקצת שמה את הכתבה הזו בפרופרציות סבירות, ומסבירה מדוע היסוד "החרדתי" אולי "הדיסטופי" בכתבה קצת מוגזם:
[ה]מאמר המקורי מ HBR שעליו היא נשענת. תוהה אם מישהו טרח לקרוא את המאמר המקורי — הבדיקה שנעשתה שם אינה מבוססת או מדעית, והמידע מבוסס על איסוף מידע אקראי של הכותב בעיקר מ reddit ולגבי זה יש הרבה בעיות בניתוח המידע: אנשים לא נשאלו באופן ישיר, האם מי שכותב בreddit מייצג את כלל המשתמשים/ מה אנשים כותבים ומה הפרשנות למה שנכתב/ השפעות גיאוגרפיות/סוציואקונומיות ועוד..
אין תגובות:
הוסף רשומת תגובה