למה הAI מאלץ אותנו לחשוב על החשיבה שלנו? ומה יקרה אם לא?
- עוז מצליח

- 25 ביוני
- זמן קריאה 8 דקות
עודכן: 27 ביולי
"אני לא יודע איך הגעתי לתשובה הזו. הבינה המלאכותית נתנה לי תובנה מבריקה, אבל אני לא יודע אם לבטוח בה או לא."
השבוע שוחחתי עם מנכ"ל של חברה גדולה, שסיפר לי על חוויה שהפכה מוכרת כבר למיליונים בעולם. הוא השתמש בצ'אט GPT כדי לנתח נתונים מורכבים, וכששאלתי אותו על התוצאות, הביטחון שלו התערער. "מה אתה חושב?" הוא שאל אותי. "לסמוך עליה או לא?"
השאלה שלו חשפה משהו עמוק יותר מאשר חוסר בטחון טכני. היא חשפה את הלב של המהפכה הקוגניטיבית שכולנו עוברים עכשיו, בין אם אנו רוצים או לא רוצים.
מה שהוא לא ידע זה שהוא נוגע בדיוק בנקודה שמטרידה נוירולוגים וחוקרי מוח רבים, וגם אותי בתור חוקר תודעה. אז תודו לו על המאמר הזה כי זה אחד שחייב לקרוא!
הנקודה הזו היא שהבינה המלאכותית לא רק משנה את האופן שבו אנחנו עובדים - היא משנה את המוח עצמו.

#1 המוח הפלסטי שלנו במפגש עם AI
המוח האנושי הוא איבר פלסטי, הוא משתנה ומתעצב מחדש בהתאם לשימוש שאנחנו עושים בו. זו הנוירופלסטיות, היכולת המדהימה של המוח ליצור קשרים עצביים חדשים ולחזק או להחליש קיימים.
הבעיה המרכזית היא כשאנחנו מאצילים פונקציות קוגניטיביות לבינה מלאכותית, אנחנו בעצם מלמדים את המוח שלנו להפסיק לחשוב.
בדיוק כמו שריר שלא מאמנים, או יותר נכון נותנים לאדם אחר להרים את המשקולות, בסופו של דבר השריר נחלש ובמצבים קיצוניים גם מנוון והרוס. לאחר שימוש ממושך באותם תוכנות בינה מלאכותית מה שקורה אלצנו במח מכונה "תלות קוגניטיבית". זה כמו "עצלות מחשבתית" שהופכת להרגל, עד שהמוח "שוכח" איך לתפקד לבד.
אבל מה שמעניין באמת הוא ההשלכה הנוירולוגית של זה, כשאנחנו מפסיקים להפעיל מסלולים עצביים מסוימים, הם נחלשים. כי המוח מבין שהם לא חיוניים יותר ולומד לא להשתמש בהם.
#2 הדילמה הקוגניטיבית של המאה ה-21
בפעם הראשונה בהיסטוריה, אנחנו לא רק משתמשים במכונות כדי לחשוב, אלא המכונות חושבות איתנו, ולעיתים קרובות מידי במקומנו. ולמרות שזה נשמע כמו עזרה, זו עלולה להיות מלכודת מסוכנת.
יש לכם עוזר אישי מושלם. תמיד זמין, תמיד מספק תשובה משכנעת, כמעט תמיד צודק. יש רק בעיה אחת קטנה. הוא לא מספר לכם איך הוא הגיע לתשובה.
בהתחלה זה נפלא. אתם חוסכים זמן, מקבלים תוצאות טובות, ומרגישים יעילים. אבל אט אט, משהו מתחיל להשתנות בכם. במיוחד שהעוזר לא זמין, אתם מגלים שאתם מתקשים לקבל החלטות לבד. הביטחון העצמי שלכם יורד, ואתם מתחילים להסתמך עליו יותר ויותר.
וכאן מתעוררת השאלה למי בכלל אכפת איך הגענו לתשובה כל עוד קיבלנו אותה? ושם נמצאת בול הבעיה. כי אם אנחנו מסתפקים רק בתוצאה אנחנו מוותרים על ההבנה. וברגע שאנחנו מפסיקים לשאול "למה" ו"איך", אנחנו מפסיקים להתאמן בחשיבה. וחשיבה זה לא רק סקרנות, היכולת שלכם לחשוב, אותו חוסן קוגניטיבי מגדיר אותכם ואת היכולת שלכם בעולם הזה.
"תלות קוגניטיבית" נוצרת כאשר משתמשים סומכים על המלצות בינה מלאכותית מבלי להבין את ההיגיון הפנימי שלה.
במחקר שכותרתו "Interpretability gone bad: The role of bounded rationality in how practitioners understand machine learning", החוקרים מראים כיצד אנשים מפתחים הבנה לקויה של מודלים כאשר הכלים ההסבריים חלקיים.
מחקר פורץ דרך משנת 2024 מאת Kaur ועמיתיו ממחיש זאת באופן מדויק. במאמרם הם מתארים תופעה מדאיגה מאוד שנקראת תלות קוגניטיבית. ככל שהמערכת מספקת תשובות ברורות אך לא מוסברות, כך המשתמשים מפתחים הבנה חלקית או שגויה של המודלים, וסומכים עליהם באופן עיוור.
התוצאה היא שלא רק שהשיפוט שלנו נחלש אלא גם היכולת שלנו לחשוב עצמאית נשחקת. כי כשאנשים מקבלים הסברים חסרים או שטחיים ממערכות בינה מלאכותית, הם לא רק מתקשים להעריך את נכונות ההמלצות, הם בעצם מפסיקים לפתח כישורי חשיבה עצמאית. זה כמו לתת למישהו דג במקום ללמד אותו לדוג, רק שהמחיר פה הוא כבד הרבה יותר כי פה אנחנו מדברים על אובדן היכולת לחשוב באופן עצמאי על בעיות מורכבות.
זו המלכודת של העידן הנוכחי: ככל שהמכונות נעשות טובות יותר, הנכונות שלנו להבין קטנה. והמחיר אינו רק טכני הוא תודעתי.
#3 האשליה של ההבנה
הדבר נעשה מורכב יותר ממה שנדמה. המוח שלנו לא מסתפק בתשובות הוא מחפש הסברים. גם כשאין לו מידע, הוא ימציא כזה, זאת תכונת הדיפולט מתוך תכנות אבולוציוני עמוק. לכן כשבינה מלאכותית עונה לנו, גם אם לא קיבלנו נימוק או היגיון אנחנו מרגישים כאילו קיבלנו. זו תופעה שמכונה השלמה הסברית - מנגנון שבו המוח "סוגר פערים" כדי להרגיש שליטה.
ניקח דוגמה יומיומית: מערכת ניווט אומרת "פנה ימינה". רוב האנשים לא שואלים למה. המוח משלים: "כנראה יש פקק", או "זו הדרך הקצרה יותר". אנחנו לא יודעים באמת אבל מרגישים שאנחנו יודעים.
התחושה הזו, שבאופן לא מודע מדמה הבנה, מייצרת ביטחון. אבל זה ביטחון שקרי ואנחנו מתחילים לסמוך על המכונה לא בגלל שאנחנו מבינים, אלא בגלל שאנחנו משלים את עצמנו.
בני אדם נוטים לייחס כוונה ותכלית לפעולות של מערכות אוטונומיות גם כשאין שום "כוונה" אמיתית מאחוריהן.
Gyevnar, B., et al. (2025). "People attribute purpose to autonomous vehicles when explaining their behavior"
במאמר החוקרים מתארים כיצד אנשים בונים לעצמם נרטיב של כוונה, מוסר, או היגיון, גם כשמדובר בהחלטה שנוצרה מחישוב סטטיסטי בלבד.
וזה מסוכן כי ההחלטות שמבוססות על אשליית הבנה עלולות להשפיע על תחומים מהותיים: רפואה, משפט, חינוך, ביטחון. כשאנחנו חושבים שאנחנו מבינים אנחנו מפסיקים לבדוק.
כאן נכנס לתמונה פרופ' דיוויד צ'אלמרס, פילוסוף תודעה מוביל מאוניברסיטת ניו יורק. שבמאמרו, הוא מציע מסגרת קוגניטיבית שעוזרת להבחין בין הבנה אמיתית לבין חוויה של הבנה. והשאלה שהוא מציב חדה ונוקבת:
האם אנחנו באמת מבינים את מה שהבינה המלאכותית עושה או שפשוט נוח לנו להאמין שכן?
#4 הבעיה שאי אפשר (באמת) לפתור
"אם זה כל כך מסוכן, למה שלא פשוט נבקש מהבינה המלאכותית להסביר את עצמה?"
שאלה לגיטימית והתשובה, למרבה האירוניה, היא שגם היא לא יודעת להסביר. רוב המערכות המודרניות, במיוחד אלו המבוססות על למידה עמוקה, פועלות באופן שאפילו המפתחים שלהן לא מבינים במלואו. אנחנו יודעים להפעיל אותן, אך לא באמת לפענח למה הן בחרו בתשובה מסוימת ולא אחרת.
קחו לדוגמה מערכת לזיהוי סרטן בצילומי רנטגן. היא יכולה להצביע בדיוק על אזור החשוד בגידול, אבל לא יודעת להסביר למה. האלגוריתם הבחין בדפוסים עדינים באלפי פרמטרים: צבע, צפיפות, טקסטורה, אור וצל. כל אלה יחד יצרו תחושת "חשד", אבל הוא עצמו לא יכול לפרק את התהליך למילים שאדם יבין.
כשהמערכות כן מנסות להסביר את עצמן, התוצאה לעיתים קרובות היא הסבר שטחי או מופשט, מעין גרסה ממוחשבת של "אני מרגיש את זה באוויר" כאילו להבנתו אם ינסה להסביר לנו יש לאותה בינה מלאכותית תחושת בטן. זה נשמע כאילו נאמר משהו אבל בפועל, לא באמת קיבלתם הבנה.
החוקרים Taylor ו־Taylor (מבטיח שלא התבלבלתי בשמות) מאוניברסיטת Georgia Tech ניסו לגשת לבעיה מזווית חדשה. במאמרם הם שילבו תובנות מפסיכולוגיה קוגניטיבית ניסויית כדי לנסות לנסח הסברים שהמוח האנושי יוכל להבין, לבקר ולעבד.
המסקנה שלהם -
"יכולת ההסבר היא בעיה עקרונית, לא רק טכנית."
כלומר, הקושי להסביר את פעולת הבינה המלאכותית נובע לא רק ממורכבות טכנית, אלא ממגבלה עמוקה יותר, עצם טבעה של החשיבה האלגוריתמית. הניסיון ליצור הסברים עבור מערכות שאנחנו לא באמת מבינים בעצמנו יוצר אשליה של שקיפות. זה נראה ברור, אבל בעצם רק מסתיר את העובדה שאנחנו לא מבינים מה קורה בפנים.
גם החוקר אהסן (Ehsan) במאמרו, מתמודד עם השאלה הזו. הוא טוען שהסבריות צריכה להיבנות מתוך הבנה קוגניטיבית של המשתמש ולא רק מתוך היגיון מתמטי. אבל הוא גם מודה במגבלה המובנית: רוב המערכות לא עוצבו מראש עם מטרה להיות מובנות לבני אדם. הן תוכננו לפתור בעיות לא להסביר את עצמן.
ובמצב כזה, כל "הסבר" עלול להפוך לאיפור קוגניטיבי: הוא נראה טוב, אבל לא באמת עוזר לראות את האמת.

#5 הפתרון המפתיע: לא להסביר — לאלץ אנשים לחשוב
מה עושים כשההסברים לא באמת מובנים, והבנה מדומה מסוכנת יותר מבורות? כאן נכנסת גישה חדשה וחדשנית שדווקא לא מנסה להסביר יותר, אלא לגרום למשתמש לחשוב.
במקום שהמערכת תספק תשובה שלמה וסופית "X כי Y", היא תציג חלק מהמידע, תשאיר את הקשר פתוח, ותזמין את המשתמש להשלים אותו בעצמו.
למשל:
במקום: "מומלץ להשקיע בחברה ABC כי הרווחיות שלה עולה"
יוצג: "חברת ABC הגדילה הכנסות ב־15% בשנה האחרונה, אך הוצאות השיווק שלה גדלו ב־30%. מה המשמעות לדעתך?"
המערכת לא מתיימרת לדעת הכול, ולא לוקחת פיקוד, היא מציבה מראה קוגניטיבית. היא לא משאירה אותך לבד, אבל גם לא עונה במקומך. בדיוק כמו יועץ טוב: מציג עובדות, שואל שאלות ואתם הם אלו שמחליטים. המשתמש נשאר במרכז. לא כצרכן פאסיבי אלא כשותף חושב. הגישה הזו מראה שאנשים שעובדים עם מערכות שפועלות לפי עקרון האילוץ הקוגניטיבי, מפתחים חשיבה ביקורתית חזקה יותר, מגלים פחות תלות פסיכולוגית במערכת ומבינים לעומק את המידע, במקום לסמוך על מסקנות מוכנות מראש.
בינה מלאכותית כשותפה, לא כתחליף
כדי להימנע מהתלות, עלינו לשנות את צורת הקשר עם המכונה. לא לראות בה גורו דיגיטלי שיודע הכול, אלא שחקן צוות מוכשר שעובד איתנו אבל לא במקומנו.
הגישה הישנה:
"הבינה המלאכותית יודעת הכי טוב, אני פשוט אעשה מה שהיא אומרת"
הגישה החדשה:
"הבינה המלאכותית טובה בלזהות תבניות. אני טוב בלפרש הקשרים ולהבין הקשר.בוא נעבוד ביחד."
הכפייה הזו לחשוב היא לא מגבלה. היא חיסון קוגניטיבי. והיא אולי המפתח לשמר את מה שהופך אותנו לבני אדם, לא רק לדעת מה התשובה — אלא להבין למה.
#6 איך שומרים על עצמאות חשיבה בעידן של מכונות חכמות?
הבינה המלאכותית כבר כאן. היא לא רק עוזרת לנו לחשוב, היא משתתפת בחשיבה שלנו. והשאלה הקריטית היא: איך שומרים על שליטה תודעתית בעולם שבו כבר לא ברור מי חושב עבור מי?
כדי לשמור על חדות, עצמאות וביטחון קוגניטיבי, אנחנו צריכים יותר מסתם זהירות. אנחנו צריכים מדריך. מערכת הפעלה פנימית שמחזירה אותנו למרכז תהליך החשיבה.
מטרת המדריך ACT – Advanced Conscious Thought היא בידיוק זו. ACT הוא מודל שפותח כדי לתת לאנשים כלים מוחשיים להישאר חדים, חופשיים, ופעילים גם כשהכול סביבם נעשה אוטומטי.
ארבעה כלים לשמירה על תודעה עצמאית
1. אל תקבלו תשובה בלי לשאול עליה
במקום לעבור הלאה, עצרו ושאלו: "איך הגיעו למסקנה הזו?", "האם יש להם אינטרס שאני אחשוב ככה?" גם אם המערכת לא תדע להסביר, עצם השאלה מפעילה את המערכת המנטלית שלכם. היא מחזירה אתכם להיות חושבים לא רק מקבלים.
2. בקשו נתונים לא מסקנות
כשאתם שואלים "מה לעשות?" אתם מוותרים על כוח. כשתשאלו "מה הנתונים?" אתם נשארים בשליטה. זה ההבדל בין ללכת אחרי מישהו לבין ללכת איתו.
3. צרו "אזורי חשיבה חופשית"
בחרו תחומים שבהם אתם מתרגלים חשיבה עצמאית בלי עזרים. זה יכול להיות דיון פילוסופי, קריאת מאמר, תכנון יום, או פתרון בעיה בלי גוגל. זה אימון כושר למוח.
4. תבינו את המגבלות, גם של המכונה וגם של עצמכם
איפה ה־AI מצטיינת? איפה היא נופלת? איפה אתם מקבלים החלטות מהר מדי? איפה אתם נכנעים לאינטואיציה של אחרים? הכרת המגבלות היא נקודת הפתיחה לחופש מחשבתי.
#7 ומה אם לא נעשה עם זה כלום?
תלות קוגניטיבית לא מתפוצצת ברגע היא נבנת ומתעצמת בשקט ביחד עם ההתפתחות. הנה איך זה קורה:
שלב ראשון: אתם מרגישים בטוחים יותר כשהמערכת איתכם
שלב שני: אתם פחות בודקים, פחות שואלים
שלב שלישי: אתם כבר לא יודעים לזהות מתי היא טועה
שלב רביעי: אתם פשוט מפסיקים לחשוב לבד
החדשות הטובות? זה הפיך. אבל כמו שריר שלא מתאמן גם תודעה לא חוזרת לעצמה בלי מאמץ.
#8 העתיד של החשיבה האנושית הוא לא בידיים של המכונה
תהיו שמחים וגאים אנחנו חיים בתקופה חסרת תקדים בהיסטוריה האנושית,ו בפעם הראשונה בהיסטוריה, יש לצדינו מערכות שחושבות כמעט כמונו. אבל דווקא בגלל זה אנחנו לא יכולים להרשות לעצמנו לחשוב פחות.
העתיד לא ייקבע לפי כמה חזקה תהיה הבינה המלאכותית אלא לפי כמה חכמה תישאר התודעה האנושית.
וזו בדיוק המשימה שלי ושלכם! לעזור לאנשים להישאר חדים, מחוברים, עם שיקול דעת עצמאי גם כשהכול סביבם מתייעל. זו לא שיטה פילוסופית. זו שיטה מעשית שמספקת כלים פשוטים, ברורים ויומיומיים, שמחזקים את כושר החשיבה, את קבלת ההחלטות, ואת היכולת לזהות מתי משהו פשוט מרגיש נכון אבל לא באמת נבדק.
#9 השאלה שתקבע את העתיד שלך
כל פעם שאתה משתמש בבינה מלאכותית, תשאל את עצמך:
"האם אני משתמש בזה כדי לחשוב טוב יותר — או כדי להפסיק לחשוב?"
זו לא שאלה טכנית. זו שאלה קיומית. היא תקבע את האיכות של ההחלטות שלך, של השיחות שלך, של הבחירות שלך.
ובסופו של דבר, היא תקבע אם אתה עדיין אדם חושב, או רק אדם שמחכה לתשובה.

מקורות המחקרים:
Kaur, H., et al. (2024). "Interpretability gone bad: The role of bounded rationality in how practitioners understand machine learning"
Gyevnar, B., et al. (2025). "People attribute purpose to autonomous vehicles when explaining their behavior"
de Jong, M., et al. (2025). "Cognitive Forcing for Better Decision-Making"
Taylor, J. & Taylor, S. (2021). "Artificial cognition: How experimental psychology can help generate explainable AI"
Lawless, W., et al. (2019). "Artificial intelligence, autonomy, and human-machine teams"
Chalmers, D. (2025). "Propositional interpretability in artificial intelligence"
Ehsan, U. (2024). "Human-Centered Explainable AI"
Queloz, M. (2024). "Explainability through Systematicity"


תגובות