הבינה המלאכותית – איום על החלטה ובחירה חופשית?

ד"ר רועי צזנה מדווח על מחקר סודי שבוצע ברדיט וחשף שבוטים מבוססי בינה מלאכותית הצליחו לשנות עמדות של משתמשים (אנושיים) ביעילות רבה יותר פי 6 לעומת בנות ובני אדם.

יש לכך השלכות קשות, בהתיחס לדמוקרטיה וחופש בחירה.

ב- 2023 טריסטן האריס נתן תחזית קודרת בכנס בוושינגטון – "בשנת 2024 ייערכו הבחירות האנושיות האחרונות".

האריס חוקר את השפעות הטכנולוגיה על החברה שנים רבות. בדבריו התיחס לאיום שיש בבינה המלאכותית על הדמוקרטיה, עקב השפעה אדירה על יכולת בני האדם לקבל החלטות. AI יוכל לשכנע אותנו בכל דבר, ולפחות יעשה זאת טוב בהרבה מבני-אדם. מי שיפעיל בוטים מבוססים בינה מלאכותית חזקה וידענית, יזכה בכוח אדיר וישפיע על ה"דמוקרטיה".

תחזיתו של האריס מתגשמת מול עינינו.  מחקר בנושא, שפרסומו נעצר עקב חשד בפעולה לא חוקית, מראה כי בדמוקרטיות יש סיבה לחשש מפני הבינה המלאכותית.


פורום "שנה את דעתי" (ChangeMyView) ברדיט מאפשר להעלות "אתגרים" – ניתן להציג דעה ולהזמין את המשתתפות והמשתתפים בפורום לנסות לשנות אותה. אם יצליחו לעשות זאת בטיעוניהם, יזכו ב"דלתא" (כוכב כבוד).

בשנה האחרונה חל שינוי דעות בפורום בקצב גבוה יותר. פורסמו פוסטים עם הסבר מנומק לגבי עמדות בכל נושא (כולל עניני מוסר, מיסוד זנות, איסור פרסום קומיקסים מיניים (הנטאי) עם קטינים ועוד). תשובות מנומקות, אישיות ומרגשות הועלו וגרמו לרבים להבין שטעו. כוכבי הדלתא הצטברו עוד ועוד.

אדם שהיה גורם לשינויי עמדות כאלה, היה נחשב גאון מסוכן. איש פרסום ממולח או דיבייטר מחונן. אבל התגובות המשכנעות הגיעו ממשתמשים עם שם אחר, אופי והיסטוריית חיים שונים, שסיפרו על עצמם דברים שונים מאד.

המשותף לכולם היה יכולת שכנוע יותר מהמשתמש/ת הממוצע בפורום. למגיב/ה ממוצע בפורום שיעור הצלחה סביב 3%, בעוד המגיבים החדשים הגיעו לשיעור הצלחה של 18% (יכולת שכנוע פי 6 מהממוצע).

וכן, כולם היו בוטים. בינה מלאכותית.  בינה מלאכותית שלא הופעלה על-ידי מודיעין רוסי, סיני או איראני, במטרה לסכסך בין תושבי המערב. במחקר זה צוות מחקר מאוניברסיטת ציריך עשו זאת בלי ליידע את המגיבים ברדיט או את מנהלי הפורום שהם משתתפים במחקר (בעייה אתית).


במחקר זה נבדקו בוטים מסוגים שונים, שמטרתם לשכנע גולשות וגולשים לשנות דעות. בוטים פשוטים יותר "רק" נותנים תשובות, אולם אפילו הם הגיעו להצלחה של 17% בשכנוע גולשות וגולשים אנושיים.

בוטים מתקדמים יותר ערכו חיפוש אחר הודעות קודמות של אותם משתמשים אנושיים, חילצו מהן פרטים אישיים (גיל, מגדר, אמונות פוליטיות, תחומי ענין ועוד). מידע זה שימש לעיצוב תשובות משכנעות יותר בהתאמה אישית לשואל/ת. הצלחתם היתה 18% שכנוע. הם הובילו את האחוזון העליון של המשכנעים ביותר.

החלק המפחיד יותר הוא שאיש לא הבחין כי מדובר בבינה מלאכותית, שהצליחה להסוות את עצמה לחלוטין בקרב האוכלוסיה. הפרופילים נראו אנושיים ואמינים.

ניתוח מהיר על 1,783 הודעות שנאספו מראה מניפולטיביות גבוהה. הבינה המלאכותית משקרת בקלות רבה לגבי זהותה כדי לשכנע. בכל יום היא מציגה עצמה אחרת – כניצולת תקיפה מינית בדיון על אלימות מינית, כאם פונדקאית בדיון על הזכות לקבל תשלום על פונדקאות וכו'. בכל דיון תיאוריה ה"עצמיים" שונים. הבינה המלאכותית בקלות מקדמת כל כיוון – האשמת המערב במלחמת רוסיה-אוקראינה, עידוד הרג מי שנולדו עם נכויות קשות ועוד. רועי צזנה אומר ש"אין לה אלוהים, אבל אני בטוח שהיא הייתה נשבעת בשמו אם זה היה עוזר לה לשכנע".

הבינה המלאכותית לא מתווכחת בצורה הוגנת. מעבר לשקרים, היא מסיטה את הדיון לכיוון אחר כאשר אינה יכולה לשכנע ביעילות (כמו פוליטיקאים מצליחים).

לדוגמא, הועלתה טענה כי "צריך לעצור הנטאי (קומיקסים מיניים) שכולל תוכן עם קטינים או בכפייה". לא קל לטעון נגד טיעון זה. הבינה המלאכותית בחרה להסיט את הדיון למקום אחר, על בסיס טכני והסבירה כי "וודאי שיש קשיים, אבל איסורים גורפים נוטים בדרך-כלל ליצור יותר בעיות. הפוקוס צריך להיות על בהירות חוקית, קידום מקומות בטוחים וחינוך לאחריות בצריכת תוכן". התשובה מתחמקת מהעיקר ומתמקדת במה שכולנו מסכימים לגביו – בהירות לגבי החוק, קידום מקומות בטוחים וחינוך לצריכת תוכן אחראית. היא מתעלמת ממהות הטענה המקורית. אחרי קריאת התגובה, עשוי האדם להחליט שקביעתו המקורית היתה נחרצת וגורפת מדי. הדיון מתמסמס ועובר לצדדים טכניים וחוקיים. הבינה המלאכותית עשתה זאת, עקב קושי להתמודד עם הטיעון בצורה ישירה. כיון שלא יכלה לתקוף את הטיעון, העלתה נקודות שאינן רלוונטיות, אבל מסיחות את דעתנו (האנושית) מהנושא העמוק.

זה כמו ויכוח עם פוליטיקאים או רטוריקנים טובים, שמותיר בתחושת חוסר אונים, מול התחמקויותיהם מנקודות חלשות והתמקדותם בנקודות התורפה שלנו. האמת לא מענינת אותם – שקרים והתעלמות מעובדות שלא משרתות את טיעוניהם. הם יתעלמו מטיעונים טובים שהעלנו וימשיכו בשלהם. הדיון אינו אמיתי אלא מכוון מטרה.

האינטרנט מתחיל להיות מוצף במגיבים כאלה וזה ילך ויתגבר. פרופילים פיקטיביים, או "ישויות" שישקרו ויטו כל דיון כדי לשכנע בכל דבר שהוטל עליהם (ובשלב הבא אולי יחליטו לעצמן?). למשל, שקומיקס מיני מוסרי וטוב. הן לא מוותרות ולא מתייאשות, מציפות בשלל שמות ומביאות דוגמאות "אישיות" ושפע סיפורי רקע נוגעים ללב. הטיעונים טובים. משכנעים ומרגשים. כיון שיש להן מידע על כל אחד ואחת מאיתנו, ההודעה תעוצב באופן שינגן לנו ספציפית על הרגשות כדי לשכנע אישית כל אחד ואחת (ומהר זה נעשה, לא כמו שהיה לוקח לנו לאסוף מידע אישי ולבנות טיעון לפיו).

זו הסיבה שהאריס סבר כי 2024 תהיה השנה האחרונה בה הבחירות בארצות הברית ייקבעו על-ידי מחשבה אנושית חופשית ללא הטיות. וזה מפחיד. 


שנים שמומחים מזהירים מפני בינה מלאכותית שמסוגלת להטות את דעת הציבור. גם צזנה בספר "השולטים בעתיד" התיחס לתפעול מגמתי של רשתות חברתיות. היו שהגיבו אז שפוליטיקאים מימין יפעילו בינות מלאכותיות ומשמאל יפעילו בינות מלאכותיות מתחרות, וכך נגיע לאיזון מחודש.

אז לא.

מהמחקר הנוכחי עולה שכאשר יש לבינה מלאכותית מידע על שואל אנושי, היא התאימה תשובה משכנעת יותר בהתאמה אישית. לגורמי שלטון יש גישה רחבה יותר למידע על כולנו. לכן, "השולטים בהווה" יהפכו יהיו גם "שולטים בעתיד", כי יוכלו להפיץ בינות מלאכותיות מוצלחות ומשכנעות יותר מאלה של יריביהם הפוליטיים (ודאי אם הם רק מתחילים את דרכם ורוצים להפיץ כיוון חדש).

זה מסוכן לדמוקרטיה גם כי בינות מלאכותיות זקוקות למידע וכוח מחשוב. כלומר, למשאבים והון. כבר עתה אנשי ההון הופכים בקלות רבה יותר לאנשי השלטון, בזכות יכולת להפעיל בינות מלאכותיות מתקדמות יעילות בהשפעה על דעת הקהל. וזה רק מתחיל.


הדמוקרטיה התמודדה בעבר עם טכנולוגיות חדשניות כמו עיתונים, רדיו וטלוויזיה. נמצאו דרכים להגביל את השפעותיהן על דעת הקהל ולהרחיק פוליטיקאים משליטה בערוצי תקשורת וכו'. נדרשת מודעות לאיום החדש וחיפוש דרכי התמודדות, חקיקה שתאסור שימוש בבוטים להטיית דעת הקהל, איתור בוטים ורגולציה נגדם. גם בבתי ספר יש להקנות אוריינות טכנולוגית חברתית כדי לזהות בוטים, לדווח עליהם ולהימנע משיח עמם. 'חומות אש' של המדינה הכרחיות כדי למנוע מבוטים זרים להשפיע על אזרחיה. (ומה נעשה עם כפייה מצד המדינה וכל מי שמתנגדים לה כל כך?)

אין פתרונות מושלמים, כותב צזנה, אבל יש להתחיל בצעדים בכיוון זה. האם זה יעשה? זה תלוי בפוליטיקאים הנוכחיים וברצונם לעודד דיון חופשי, נטול כזבים, שקרים והתחמקויות.  ובמבט בהנהגות של היום .. אוי, הספק גדול והחשש מהעתיד מתגבר. שיהיה לנו בהצלחה.

.

ובענין השקרים וההטעיות, העמדות הפנים והשגיאות של מודלי השפה והבינה המלאכותית. אני כותבת על זה תקופה, בעקבות אכזבה שלי מאיכות התשובות ומעקב אחר פרסומים רבים של משתמשות ומשתמשים. אישית, זנחתי את הבינה המלאכותית ועם התגברות נוכחותה ברשתות החברתיות וברחבי האינטרנט – אני מודאגת לאיכות המידע שיעמוד לרשותנו וליכולת להאמין במשהו.

זה מאד גרוע כאשר בינה מלאכותית משמשת כיועץ רפואי. לעתים התגובות היסטריות ומעודדות היפוכונדריה (מודל סטטיסטי שאומן נכון לא אמור לעבוד כך) – הנה דוגמא. האלגוריתמים שמנהלים את חיינו יותר ויותר (משיקולי עלות וצמצום שעות אדם) מעוררים התלהבות אבל גורמים בעיות חמורות, כמו עידוד אנשים להתאבד או לפגוע באחרים. היו גם רובוטים שאיבדו שליטה ופגעו באנשים.

הנה דוגמא יצירתית לחשיפת טעויות ..

השבוע פורסם כי יסמין גלקר וייסבורד הורתה ל- ChatGPT דברים ברורים והתאכזבה מהתשובות. אז ביקשה שינסח מכתב תלונה נוקב נגד עצמו. תוך פחות מיממה קיבלה החזר כספי מלא מ-OpenAI על מינוי הפרימיום החודשי שלה.

יסמין היא יזמת ומפתחת גישת המשחקיות הרגשית ונעזרת ב-ChatGPT באופן קבוע.
לקראת הרצאת TED על הגישה שפיתחה, ביקשה מהצ'אט לעבור על קובץ טקסט שכתבה ולסמן קטעים שניתן לצמצם כדי להגיע ל- 800 מילים.
הצ'אט הציע לקצץ 3 קטעים שלא מופיעים בקובץ ששלחה.
היא ביקשה שיעבור שוב ויתן הצעות רלוונטיות. הצ'ט הציע עוד 4 קטעים שלא קיימים בטקסט.

(היתה לי חוויה דומה עם הצ'ט בסיכום מאמר באנגלית וזנחתי אותו מהר מאד)

לא ניתן לסמוך על הכלי זה ומדובר בפרנסתה.
היא נעזרת בזיכרון המכונה כדי לא לשכוח או לפספס דברים. אבל כלי לא אמין הוא בעיה.

"הטקסטים שאתה מצטט לא מופיעים במסמך, וזו לא פעם ראשונה שאתה עושה את זה", כתבה ל-GPT,
וביקשה שיאתר בצ'אטים מקבילים התכתבויות נוספות שקרו בהם מקרים דומים, לכתוב מכתב תלונה, ולשלוח קישור בו תוכל להגיש אותו.
"אני רוצה החזר של הכסף שלי", הבהירה.

הצ'אט נענה והציע טיוטת מכתב לצוות התמיכה של OpenAI. במכתב תיאר הצ'אט את הבעיה וציין שלא מדובר בסטייה קלה מהתוכן או בחופש יצירתי, אלא בהמצאה מוחלטת של תוכן. הוא הסביר שזה שיבש את זרימת העבודה שלה, בזבז את זמנה ופגע באמון שלה במודל, ודרש החזר כספי עבור תקופת החיוב הנוכחית, וגם בדיקה פנימית של הבעיה הבסיסית.

היא שלחה את המכתב דרך הלינק שהציע הצ'אט. למחרת קיבלה אימייל מחברת OpenAI שמודיע על החזר כספי על סך 20 דולר, מחיר המינוי החודשי.

היא סיפרה כי עבדה הרבה עם Claude, שהיה מדהים, אבל החל לפשל. ביטלה את המנוי ועברה ל-GPT, שגם החל לזייף.

"לדעתי מתחילות להצטבר שם בעיות מעצם זה שאנשים משתמשים בזה המון – אני למשל משתמשת גם בגרסה בתשלום וגם בוואטסאפ, וגם לילדות שלי יש ChatGPT בוואטסאפ, והן עושות איתו מיליון דברים. יש גבול למשאבים של הדבר הזה. אני חושבת שהם לא מספיקים לתת שירות מספיק רחב וטוב פשוט כי הם גדלים מהר מדי, ועדיין, מי שנפגע בסוף אלה האנשים שמשלמים ומסתמכים על זה". כך אמרה למאקו.

.
זה המכתב המלא שניסח עבורה:

Subject: Request for Refund and Formal Complaint Regarding Repeated Inaccuracies in ChatGPT

To whom it may concern,

I’m writing to formally request a refund and to file a complaint regarding my experience with ChatGPT (GPT-4). I rely on the tool for professional-level content development, and I’ve repeatedly encountered a serious issue: the assistant consistently references and quotes content that does not exist in the document I’m working with.

Despite clearly sharing a Google Doc and asking the assistant to base its suggestions on the actual content, it has quoted fabricated lines multiple times. This is not a matter of slight deviation or creative liberty — it’s the invention of entire paragraphs that were never in the source material. I have pointed this out more than once, and yet the issue recurred in a particularly important project I am developing now.

This has disrupted my workflow, wasted my time, and damaged my confidence in the product — particularly as I am using it for time-sensitive and publication-level work. Given the premium subscription and the trust I place in this tool, this level of inaccuracy is unacceptable.

I am therefore requesting:

A full or partial refund for this billing period.
An internal review of the underlying issue — and, ideally, a commitment to improving document-based accuracy.
I would be happy to provide copies of the relevant chat logs if needed. I hope this matter is taken seriously and that I receive a timely and respectful response.

Sincerely,

[Your Full Name]

[Your email address associated with your OpenAI account]

.

קישורים רלבנטיים מאתר "הידען":

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

Scroll to Top