בדיקת עובדות לתוכן שנכתב על ידי AI: למה זה הכרחי ואיך עושים את זה נכון

"ה-AI המציא מעיינות חמים, ולתיירים שהגיעו חיכתה הפתעה". זאת הייתה הכותרת ב-ynet שמשכה את תשומת ליבי. מדובר על מאמר שהמליץ על אתר תיירותי מרהיב בטסמניה. ההפתעה שחיכתה לתיירים היא כמובן שאין שום מעיינות חמים, מכיוון שה-AI המציא אותם; ולדברי בעל האתר "החומרים פורסמו ללא פיקוח אנושי מספק בזמן ששהה בחו"ל".

זה מקרה משעשע (טוב, אני לא אחד מאלה שטסו עד טסמניה כדי לחפש מעיינות חמים), אבל הוא לא הראשון וכנראה גם לא יהיה האחרון. הוא הזכיר לי כתבה שפורסמה בישראל היום באוגוסט 2023 עם תיאורי אטרקציות בקריית ים – שלא קיימות במציאות. אגב, הקישור לכתבה עוד פעיל כי הטקסט השגוי והמביך הוסר ממנה, אבל עדיין נותרו עדויות לפאדיחה.

הסיפורים האלה הם דוגמאות מצוינות לבעיה נפוצה מאוד: תוכן שנכתב על ידי AI יכול להיראות אמין, מקצועי ומשכנע – כשהוא שגוי לחלוטין. המצאה. הזיה שנוצרה על ידי הבינה המלאכותית, או "AI Hallucinations". ובימינו, כאשר כולם כותבים עם AI, זה דבר שצריך להכיר – ולמנוע.

למה צריך לבצע בדיקת עובדות לתוכן שנכתב על ידי AI?

אומרים שבינה מלאכותית יודעת לכתוב, ואני מדייק וטוען שבינה מלאכותית יודעת ליצור מלל. היא יודעת לבנות פסקאות, לחבר משפטים, לייצר טקסט שנשמע אמיתי, אמין, סמכותי, אולי אפילו מקורי. 

אבל היא לא יודעת לבדוק אם מה שהיא כותבת נכון.

  • יש כלי AI שלא מבצעים (או לא יכולים לבצע) בדיקה ברשת בזמן אמת. אחרים, גם אם הם לכאורה מעודכנים בחדשות, לא תמיד יודעים אם מקום מסוים באמת קיים, אם חוק כלשהו השתנה או אם נתון ספציפי השתנה. כלי AI מייצרים טקסטים על בסיס דפוסים לשוניים שהם למדו בעבר, ולא על בסיס השוואה למה שקורה עכשיו, ממש עכשיו, כדי לאמת את הדברים.
  • הבעיה אפילו יותר חמורה אם לוקחים בחשבון ש-AI עלול להסתמך על מקורות שהם בעצמם שגויים. מאמרים ישנים, פרשנויות לא מדויקות, אולי אפילו טקסטים שנכתבו על ידי AI אחר בלי בדיקת עובדות. יכול להיות, נניח, שמישהו יכתוב עכשיו מאמר אחר על מקומות בטסמניה, ייעזר במקור השגוי שמדבר על המעיינות החמים, וכבר זה נראה כאילו הם באמת קיימים. 
  • שלא לדבר על ההנחה הידועה ש-AI מכוון בעיקר לספק את רצון המשתמשים בו, להחמיא ולפרגן, לספק את מה שביקשו ממנו עם מינימום התנגדויות – מה שהופך את אמיתות התוצר למשנית עבורו. 

הבעיה: AI מייצר טעויות שנראות אמינות

הבינה המלאכותית לא תמיד ממציאה משהו מאפס. לעיתים קרובות מדובר בחצאי-אמיתות, בהכללות, או בהסקת מסקנות רחבות מדי מנתון מצומצם. וזאת בדיוק הבעיה: טקסט שגוי שנכתב בצורה עילגת קל לזהות. טקסט שגוי שנכתב בצורה טובה, כחלק ממכלול שנראה אמין, עלול לעבור מתחת לרדאר. נדרשת קריאה ביקורתית ממש, לפעמים עד כדי ירידה לפרטים קטנים מאוד, כדי לאתר את אותן "הזיות של AI". 

המקרה של היעד התיירותי שלא קיים בטסמניה ממחיש את זה היטב: הבעיה לא הייתה ניסוח גרוע, אלא היעדר בדיקה אנושית בסיסית. במקרה אני קצת מכיר את הנושא בעצמי כי יצא לי לכתוב עבור כמה חברות טיולים ונופש על יעדים בארץ ובחו"ל שבהם לא הייתי מעולם. בחיי, המחשבה שבגלל טקסט שאני כתבתי מישהו עלול לתכנן הגעה לחוף ים קסום שלא קיים, להזמין חדר במלון שבו התנאים בפועל שונים מאלה שתוארו או לבנות טיול שלם סביב ארוחה במסעדה שהחוויה בה אחרת לגמרי מזו שציירתי במילים – הדירה שינה מעיניי וגרמה לי לבדוק כל פרט קטנטן כדי לוודא שהוא נכון. סיפרתי על זה גם כאן.

זה נכון כמובן לגבי כל תחום אחר, לאו דווקא תיירות. אני אוהב לספר על הפעם ההיא בה העבירו לי לעריכה טקסט שנכתב על ידי AI בנושא חמש חברות ישראליות מצליחות, כאשר החברה השלישית והרביעית התמזגו לאחת לפני כמה שנים והחברה החמישית בכלל התפרקה לפני עשור. במקרה אחר כתבתי על טכנולוגיות מיגון למפעלי תעשייה וה-AI תיאר עבורי טכנולוגיות מדהימות שכבר מיושמות בשטח, וכאשר חקרתי לעומק גיליתי שהן למעשה רק תכנון ולא באמת פותחו עדיין, שלא לדבר על יושמו בשום מקום. 

דרכים לבדוק עובדות בתוכן שנוצר על ידי AI

בדיקת עובדות מתחילה בקריאה ביקורתית של הטקסט עצמו. לא רק לטשטש את הסימנים המסגירים שטקסט נכתב ב-AI, כמו סימני פיסוק וכו', אלא לחפש מספרים, שמות של גופים, אזכורים של חוקים, רגולציה, מחקרים, מקומות או נתונים חד-משמעיים. כל אלה נקודות שבהן נדרשת בדיקה.

האם מספיק מקור אחד כדי לאמת משהו? לא בטוח. אם טענה מסוימת נכונה באמת, סביר שנמצא אותה ביותר ממקור עצמאי אחד. בימינו, כאשר כולנו מוקפים כל הזמן בחדשות כזב (פייק ניוז), לא תמיד אפשר לסמוך אפילו על אתר רשמי, גוף ממשלתי או פרסום מקצועי של מוסד מוכר. אם יש יותר ממקור אחד, עדיף. 

לכן גם כדאי לבדוק את המקור של המקור. גם אם בסוף כתבה מסוימת מופיעה רשימת מקורות לכתבה עצמה, אני אוהב לחפש את המקורות האלה – ולפעמים אני מגלה שהם עצמם לא קיימים. כן, זה קרה.

לא הצלחנו למצוא מקור מהימן? יש איזשהו סיכוי קטנטן שנתון מסוים הוא אולי-אולי שגוי? אם אין ודאות, עדיף שלא להעמיד פנים שיש. עדיף לסייג עם "נכון למועד כתיבת שורות אלה", או "לפי פרסומים שונים…" מאשר להציג מידע לא מבוסס כאמת מוחלטת. 

אפשר כמובן להיעזר ב-AI גם בשלב הבדיקה, כדי לזהות טענות שדורשות אימות או להציע מילות חיפוש רלוונטיות – אבל בזהירות. יצא לי למשל לכתוב עבור לקוח מאמר בנושא השקעות, ובין היתר ה-AI נתן לי טבלה יפה של מספרים. לא ממש הבנתי את המספרים האלה, אז ביקשתי ממנו לתת לי מקורות – והוא אכן סיפק במהירות רשימה של קישורים. לא הסתפקתי ברשימה, אלא ממש לחצתי על קישור-קישור. חלקם לא הובילו לשום מקום. אחרים כן הגיעו לאנשהו, אבל המספרים שם היו אחרים מאשר בטבלה שה-AI נתן לי. לכן נאלצתי לבקש מהלקוח עצמו לעבור על הטבלה ולאשר אותה. הוא לא אישר, כי בעצמו לא הבין אותה. הטבלה הוסרה מהמאמר.

כן ל-AI, לא להעתקה-הדבקה 'על עיוור'

אפשר לכתוב עם בינה מלאכותית. היא חוסכת זמן, מייעלת תהליכים ועוזרת לייצר טיוטות, רעיונות ומבנים במהירות. אבל אם עושים העתקה-הדבקה לאתר, לפוסט או לדף נחיתה, ואז מתגלה שם טעות – מי שיישא באשמה לא יהיה האלגוריתם של הצ'אט, אלא האדם שעשה קופי פייסט ללא בדיקת עובדות. 

אני ממש לא נגד שימוש ב-AI, אלא נגד עצלנות וחוסר אחריות. שימוש בטקסט שנוצר על ידי AI בלי בדיקה עלול להוביל לטעויות, לפגיעה באמינות, ובמקרים מסוימים גם לנזק ממשי לקוראים (נניח, אלה שטסו עד טסמניה כדי לחפש מעיינות חמים ומצאו רק נהר קפוא). 

בסופו של דבר, תוכן טוב הוא לא תוכן שנשמע חכם ואמין, אלא תוכן שאפשר לסמוך עליו. AI יכול לעזור לכתוב אותו, ועדיין אין תחליף לביקורת, להבנה מקצועית ולבדיקת עובדות. האחריות על שימוש נכון ואחראי עדיין נמצאת בידיים שלנו, בני האנוש. 

לשתף ב-

פוסטים נוספים שיכולים לעניין אותך

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

Phone
WhatsApp
Messenger
Messenger
WhatsApp
Phone
Scroll to Top
דילוג לתוכן