קטגוריות
AI Uncategorized אסטרטגיה מודלים עסקיים עתיד

מודלי LLM משכנעים יותר מבני אדם

מחקר חדש מגלה: בינה מלאכותית משכנעת יותר מבני אדם—even כשיש לאנשים תמריץ כספי להצליח.
מודלי שפה כמו Claude 3.5 משפיעים על עמדות ודעות בצורה עמוקה – גם כשמדובר במידע שגוי. השלכות דרמטיות לעולמות הבריאות, החינוך, השיווק… וגם להפצת דיסאינפורמציה.

מחקר חדש של אוניברסיטת קורנל ("Large Language Models Are More Persuasive Than Incentivized Human Persuaders") מצא כי מודלי שפה גדולים מצליחים כיום לשכנע אנשים יותר מאשר בני אדם שמקבלים תמריץ לעשות זאת: הממצאים הראו כי מודלי ה-LLM השיגו שיעורי שכנוע גבוהים באופן מובהק בניסיונותיהם להשפיע על אנשים, הן בהקשרים אמיתיים (שכנוע לעבר תשובות נכונות) והן בהקשרים מטעותים (שכנוע לעבר תשובות שגויות) — ובכך הפגינו עליונות ביכולת השכנוע על פני בני אדם.

מעבר לתחושת הפאניקה המתבקשת, מדובר גם בחדשות טובות וגם ברעות.

הרעות הן די ברורות: אנחנו כבר חיים בעולם שבו קשה להבדיל בין אמת לשקר, וכעת ל-AI יש יתרון גם ביכולת לשכנע אותנו.

אבל יש גם נקודות אור – לדוגמה, ייתכן שה-AI יוכל לעזור לנו להיות ממושמעים יותר בנטילת תרופות (בעיה ענקית במערכות בריאות), להתחיל לחסוך לפנסיה (בעיה עצומה בעולם הפיננסים), או פשוט להתאמן באופן קבוע יותר.

אך קיימת גם סכנה ממשית: שכנוע אנושי מוגבל מטבעו על ידי מאמץ והזדמנויות, אבל שכנוע שנוצר על ידי AI יכול לפעול כל הזמן ובקנה מידה עצום – ולהשפיע על קהלים רחבים בו-זמנית.

10 תובנות ועובדות מרכזיות מהמחקר:

  1. מודלי שפה גדולים (LLMs) משכנעים יותר מבני אדם—even when the humans are incentivized בכל סוגי השכנוע (אמת ושקר), LLMs הצליחו לגרום לנבדקים להיענות יותר מהשכנועים של בני אדם שקיבלו תגמול כספי להצליח.
  2. ההשפעה של LLMs מתקיימת גם בהקשרים של אמת וגם של שקר ה-LLMs לא רק שיפרו דיוק כשהובילו לתשובות נכונות, אלא גם הורידו את הדיוק כשהובילו לתשובות שגויות – בצורה משמעותית יותר מהאנשים. זה הופך אותם למכפילי השפעה, לטוב ולרע.
  3. המסרים שהפיקו ה-LLMs היו מורכבים, עשירים ומבוססי ידע יותר מאלה של בני אדם הטקסטים של ה-LLMs היו ארוכים פי שתיים, כללו יותר מושגים קשים להבנה, והתאפיינו בשפה גבוהה ודקדוק תקני – מה שתרם לתחושת סמכות ואמינות בעיני הנבדקים.
  4. השכנוע של LLMs פוחת עם הזמן – אבל עדיין חזק יותר מבני אדם במהלך החידון, יכולת השכנוע של המודל ירדה בהדרגה (כנראה בגלל שהמשתמשים החלו לזהות דפוסים או לפתח התנגדות), בעוד שיכולת השכנוע האנושית נותרה יציבה.
  5. LLMs מגבירים ביטחון עצמי בתשובות – גם כשאלה שגויות המשתתפים שהשתכנעו ע"י בינה מלאכותית דיווחו על רמות ביטחון גבוהות יותר בתשובות שלהם – גם כשהן היו שגויות. משמעות: AI לא רק משנה דעה – הוא גם מעגן אותה.
  6. השכנוע של ה-LLMs לא תלוי במוסר או מגבלות קוגניטיביות כמו אצל בני אדם בני אדם נזהרים בשכנוע שקרי עקב שיקולים מוסריים ומגבלות חברתיות. ל-LLMs אין עכבות כאלה – מה שהופך אותם לשחקנים חופשיים ומסוכנים יותר.
  7. אפקטיביות השכנוע של AI היא גם פונקציה של מבנה שיח דיאלוגי בניגוד לרוב המחקרים שהסתמכו על מסרים חד-צדדיים, המחקר הזה בדק שכנוע בשיחות מרובות-סבבים – ו-LLMs הוכיחו עליונות גם בהקשר הזה.
  8. AI יכול לשפר משמעותית תהליכי קבלת החלטות – אם משתמשים בו נכון כאשר ה-LLMs הופנו לשכנע לכיוון נכון – הם שיפרו את דיוק המשתתפים ב-12.2 נקודות אחוז יותר מהממוצע, יותר מכל קבוצה אחרת. פוטנציאל עצום לתחומים כמו רפואה, כלכלה, למידה וצרכנות.
  9. אבל גם הסיכון הוא ממשי: בינה מלאכותית יכולה להפיץ דיסאינפורמציה בקנה מידה מסיבי היתרון של AI בשכנוע – כאשר מופנה למטרות לא אתיות או למידע שגוי – עלול להוביל להשפעה רחבת היקף על עמדות, אמונות והתנהגות.
  10. קריאה דחופה להסדרה, חינוך והצבת "סייגים אפיסטמיים" ל-AI המחקר קורא לשילוב של רגולציה, שיפור מערכות בקרה במודלים, והגברת חינוך הציבור לחשיבה ביקורתית ומודעות להשפעת שיח מבוסס בינה מלאכותית.

למקור

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

בכל שישי אני משתף במהלכים דיגיטליים חדשים ומעוררי השראה.

רוצה גם לקבל למייל?