תארו לעצמכם שאתם מקדישים מזמנכם לקרוא כתבה מעניינת או מאמר מדעי, מתוך סקרנות וכוונה כנה ללמוד דברים חדשים. איך תגיבו אם תיתקלו במהלך הקריאה בקטעים שנראים כמו שיחה עם מחולל טקסט מבוסס בינה מלאכותית: “מייצר תשובה מחדש…”, “בוודאי, הנה הפרטים…” או “על פי העדכון האחרון שלי…”? האם תבינו את הבחירה של המחבר או המחברת להשתמש במחולל ככלי עזר לניסוח וליצירת תוכן, או שדווקא תרגישו מרומים? מחוללי הטקסט, כמו ChatGPT, חוסכים זמן, עבודה, ואת המאמץ הלא מבוטל שכרוך ביצירתיות ובעיבוד רעיונות. ההקלות האלה מתירות את הרסן ומעודדות שימוש בתוצרי המחוללים גם בכתבי עת מדעיים – במות שמה שמתפרסם בהן אמור, לכאורה, לעבור דרך מסננים של ערנות וביקורתיות.
תנו לו, ה-AI עושה את זה לבד כל כך יפה
מאגר הבושה
מאגר שהוקם כדי לעקוב אחרי ההסתננות של טקסט תוצרת בינה מלאכותית לפרסומים מדעיים מקבץ מאות מאמרים ובהם דוגמאות מביכות במיוחד. בחלקן מתועדים קטעים שאי אפשר לטעות בהם, דוגמת “בתור מודל מבוסס בינה מלאכותית אני יכול לתאר…”. המבוכה רבה במיוחד כיוון שפרסומים מדעיים אמורים לעבור עריכה וביקורת עמיתים, ומכאן שסדרת אנשים, שמוטלת עליהם אחריות לספק תוכן איכותי, ככל הנראה כשלו במשימתם. קל לפתור את הבעיה בטענה שמרבית הבעיות נמצאו בכתבי עת משניים בחשיבותם, אולם חלק מכתבי העת האלו נמצאים בבעלות גופים בעלי שם, כמו ספרינגר (Springer) או נייצ’ר (Nature). כמובן שזהו רק קצה הקרחון, כיוון שלמאגר עולים רק טקסטים שבכתיבתם נעשה שימוש מפורש במיוחד בבינה מלאכותית, והוא לא כולל תוצרים שהרמזים אולי נוקו מהם בצורה קצת יותר יסודית.
בשנה שעברה נרשמה מעין שערורייה, כאשר מאמר שעוסק בביולוגיה פורסם בליווי תמונות שהן בבירור פרי יצירתו של מחולל מבוסס בינה מלאכותית. אחת התמונות מציגה תיאור אנטומי של זכר חולדה בעל איברי רבייה מפוארים. גרוטסקה מהסוג הזה אולי ראויה מבחינה אמנותית, אך אין לה מקום בפרסום מדעי, בטח לא כשיצר אותה כלי אוטומטי חסר סמכות מדעית. מחוללים מייצרים תוכן מלא טעויות ואי דיוקים, ולמרות זאת מאמר שהשתמש במובהק בכלים האלה עבר את משוכות הפרסום. במקרה הזה הביקורת הציבורית הובילה להסרת המאמר.
מעבר לפרסומים מדעיים, תוצרים לא מוקפדים של מחוללי בינה מלאכותית מוצאים את דרכם כמעט לכל מקום, החל מכתבות בעיתונים חשובים וכלה בקמפיינים פוליטיים. פוליטיקאי אוסטרלי שהשתמש בסלוגן “נחזיר את חלום המשפחה” נאלץ להסביר שלא התכוון לטעון שחלום המשפחה האוסטרלי כולל דמויות מעוותות-פנים ומרובות-גפיים, כפי שהציגה התמונה שצורפה לקמפיין ונוצרה בעזרת בינה מלאכותית.
הקמפיין האוסטרלי שנעשה בו שימוש בתמונת AI ועורר ביקורת:
לשטות במחולל
תלמידים וסטודנטים מקבלים מטלות רבות להגשה, ואך טבעי שהם יפנו לשימוש כמעט עיוור במחוללים. כשהתוצאה כל כך מתגמלת, באמת קשה להימנע. אלא שיש מורים ומרצים שכותבים את המטלה מבעוד מועד כך ש”תפיל בפח” את אותם משתמשים בבינה מלאכותית. אפשר להשתיל בתוך הטקסט של המטלה הוראות מפורשות לכלול בתוצר טקסט מסגיר. התכסיס הזה הוא חלק משלל טכניקות פנייה לכלי בינה מלאכותית שמשפיעות על התוצאה בדרכים מתוחכמות, ומכונות “הזרקת הנחיה” או Prompt injection.
כדי להמחיש את הרעיון, עיתונאי הטכנולוגיה ומשפיען הרשת בתחום אבטחת המידע רן בר-זיק נתן לסטודנטים שלו מטלה, וביקש מהם להימנע משימוש בבינה מלאכותית לצורך פתירתה. כדי לזהות את מי שבכל זאת הטילו את המשימה על מחולל בינה מלאכותית, בר-זיק החביא בתוך קובץ הטקסט הנחיות באותיות לבנות על רקע לבן, שמכוונות במפורש למחולל כזה, ומבקשות להשתיל בתוך התשובה כינוי בארמית לאיבר המין הזכרי. בהמשך דיווח בר-זיק כי כל העבודות שהוגשו הכילו את המילה המסגירה.
הבדיחה על חשבוננו
אין ספק שקל, מהיר וזול מאוד לייצר תוכן עשיר באמצעות מחוללים מבוססי בינה מלאכותית. אולם כאשר מטרת התוכן היא להגיע לעיניים ולאוזניים של בני אדם שראויים לכבוד בסיסי, על היוצרים להתייחס באופן מכבד גם לתוכן שהם מספקים לקוראים סקרנים, לתלמידים ולמורים. לקרוא את התוכן לפני פרסומו, ולו פעם אחת, או לבחון את התמונה – זו יושרה מינימלית. אחרת, מה בעצם הטעם לכתוב או ליצור, לתת שיעורי בית או להגיש מטלות? אם אין הערכה לביקורתיות של הקוראים ולזכות שלהם לקבל תוכן איכותי, האלמנט האנושי נסדק. אולי מוטב כבר שיהיו אלה מחוללים שמדברים למחוללים.