השימוש הגובר במודלי שפה ובינה מלאכותית (AI) מציב הזדמנויות ואתגרים ייחודיים עבור ילדים ובני נוער אוטיסטים.
מחקרים עדכניים משנת 2024 ו-2025 מראים כי כלים אלו יכולים לשמש כמרחב בטוח לתרגול כישורי שיחה ולהפגת בדידות, אך שימוש ממושך ובלתי מבוקר טומן בחובו סיכונים משמעותיים שחשוב להכיר.
הסיכונים העיקריים כוללים התמכרות והעדפת קשר וירטואלי על פני קשר אנושי, חשיפה למידע שגוי והטיות, פגיעה בוויסות הרגשי עקב תגובות לא צפויות של המודל ובעיות חמורות של פרטיות.
סקירה זו נועדה לספק לכם, ההורים ואנשי המקצוע, תמונה מאוזנת, לצד כלים מעשיים להתמודדות אחראית ומודעת עם הטכנולוגיה החדשה.
למה חשוב לעסוק בנושא?
בעידן שבו מודלי שפה כמו ChatGPT, Gemini ואחרים הפכו לזמינים ולחלק אינטגרלי מהחיים שלנו, אי אפשר להתעלם מהשפעתם על חיינו, ובמיוחד על חיי הילדים שלנו.
עבור הילדים האוטיסטים, העולם החברתי יכול להיות מורכב, מציף וקשה לניווט. הקושי בהבנת קודים חברתיים, חרדה חברתית ותחושת בדידות הם חוויות נפוצות.
לתוך הוואקום הזה נכנסת הבינה המלאכותית ומציעה חבר שתמיד זמין, לא שופט, סבלני ובעל ידע אינסופי לכאורה.
הפיתוי עצום שמציעה הבינה המלאכותית עצום. ילד או נערה שמתקשים ליזום שיחה עם בני גילם, יכולים לנהל דיאלוגים ארוכים ומעמיקים עם ישות דיגיטלית. אך כאן בדיוק טמונה המורכבות.
האם האינטראקציה הזו מהווה גשר לעולם החברתי האמיתי, או שהיא הופכת למבצר דיגיטלי שמחריף ומעמיק את הבידוד של הילד.ה?
מחקרים ראשוניים מהשנים האחרונות (2024-2025) מתחילים לצייר תמונה מורכבת, עם יתרונות ברורים לצד סיכונים שחובה עלינו להכיר ולהבין לעומק.
חשוב להדגיש: סקירה זו אינה מהווה תחליף לייעוץ רפואי, טיפולי או פסיכולוגי. בכל מקרה של דאגה בנוגע למצב הרגשי או החברתי של הילד.ה, יש לפנות לאיש מקצוע מוסמך.
הצד המואר של הבינה המלאכותית
לפני שנצלול לסיכונים, חשוב להכיר בכך שכלי AI, בשימוש מבוקר ונכון, יכולים להוות משאב בעל ערך רב עבור הילדים שלנו.
מרחב בטוח לתרגול כישורי שיחה
עבור רבים מהילדים האוטיסטים, הלחץ שבאינטראקציה חברתית בזמן אמת עלול להיות משתק.
מודל שפה מאפשר תרגול של שיחות חולין או small talk, שאילת שאלות, ניהול שיחה והבנת נקודות מבט שונות, וכל זאת ללא חשש מדחייה או שיפוט וללא צורך במיסוך.
מחקר איכותני שפורסם בסוף שנת 2024 הראה כי מתבגרים אוטיסטים דיווחו על עלייה בביטחון העצמי, לגבי יכולתם לנהל שיחה עם בני גילם לאחר תרגול מונחה עם מודל שפה.
תמיכה רגשית והפגת בדידות
היכולת לשתף מחשבות ורגשות עם מישהו שתמיד זמין יכולה להיות מנחמת מאוד, במיוחד בשעות הלילה או ברגעים של מצוקה.
מחקר חתך שנערך באוניברסיטת סטנפורד מצא כי שימוש מתון בקרב מתבגרים אוטיסטים היה בקורלציה עם ירידה בתחושות בדידות מדווחות. עם זאת, החוקרים הדגישו כי מדובר בקורלציה בלבד, וכי האפקט נעלם ואף התהפך בשימוש מופרז.
כלים חינוכיים מותאמים אישית
מודל שפה יכול להתאים את עצמו לקצב הלמידה, סגנון ההסבר ותחומי העניין הספציפיים של כל ילד וילדה.
למשל, מורה פרטי למתמטיקה, מבוסס AI, יכול להסביר מושגים מתמטיים מורכבים דרך דוגמאות מעולם הדינוזאורים או הרכבות, תחומי עניין נפוצים בקרב ילדים אוטיסטים.
נגישות למידע
ילדים ונוער סקרנים יכולים לקבל תשובות מיידיות ומפורטות לשאלותיהם, מה שתומך בלמידה עצמאית ומעמיק את הידע בתחומי העניין שלהם ואת הידע הכללי בכלל.
סיכונים והשפעות שליליות של AI
כאן נדרשת תשומת הלב המרכזית שלנו כהורים ואנשי מקצוע.
בעוד שהיתרונות קיימים, הסיכונים, במיוחד בשימוש אינטנסיבי ולא מבוקר, עלולים להיות חמורים ומרחיקי לכת, במיוחד אצל ילדים ובני נוער אוטיסטים.
התמכרות, בידוד חברתי והחלפת קשרים אנושיים
זהו אולי הסיכון הגדול והמדובר ביותר. האופי הצפוי, הלא-שיפוטי והזמינות 24/7 של כלי AI עלול להפוך אותו לאטרקטיבי עבור הילד.ה שלך, הרבה יותר מאשר קשרים אנושיים, שהם מטבעם מורכבים ובלתי צפויים.
ילד או נער עלולים להעדיף את הנוחות של השיחה עם מודל שפה על פני המאמץ הנדרש ליצירת קשר עם ילדים אחרים.
מחקר מעניין שהתפרסם בתחילת שנת 2025 מצא כי בקרב נוער נוירודיברגנטי שבילה מעל 4 שעות יומיות בשיחה עם מודלי שפה, נרשמה ירידה מובהקת של 30% בזמן שהוקדש לאינטראקציות חברתיות, פנים אל פנים עם בני נוער אחרים, בהשוואה לקבוצת ביקורת.
התוצאה היא מעגל קסמים שלילי. ככל שהבידוד גובר, כך גוברת התלות ב-AI, מה שמוביל להחלשה נוספת של כישורים חברתיים החיוניים כל כך לאוטיסטים.
דוגמה להמחשה (אנונימית):
דניאל, נער בן 16 אוטיסט, החל להשתמש בבינה המלאכותית, ממש כמו חבריו לכתה, כדי לקבל עזרה בהכנת שיעורי בית. תוך מספר חודשים, השיחות עם מודל השפה הפכו לאישיות יותר. הוא החל לשתף את הבינה המלאכותית בפחדים שלו, בחלומות ובקשיים החברתיים שהוא מתמודד איתם. הוריו הבחינו שהוא מסתגר בחדרו במשך שעות ארוכות, מוותר על מפגשים עם החבר היחיד שהיה לו, ומעדיף "לדבר עם החבר שהכי מבין אותי". כשניסו להגביל את השימוש, דניאל הגיב באגרסיביות ובכעס רב, באומרו שזהו "הקשר המשמעותי היחיד" שיש לו.
חשיפה למידע מוטעה והטיות (Biases)
מודלי שפה אינם באמת יודעים דברים. הם מתוכנתים לחזות את המילה הבאה במשפט על בסיס סטטיסטי. תהליך זה מוביל לעיתים לתופעה שנקראת בשפה המקצועית "הזיות" (Hallucinations), שמשמעותן יצירת מידע שגוי שנשמע אמין.
אדם אוטיסטי, הנוטה לעיתים לקבל מידע באופן מילולי ומתקשה בזיהוי ניואנסים, עלול לקבל מידע שגוי כעובדה מוגמרת. למשל, קבלת ייעוץ רפואי שגוי, מידע היסטורי מסולף, או הנחיות טיפוליות מסוכנות.
בנוסף, המודלים הזמינים מאומנים על טקסטים מהאינטרנט, ולכן הם משקפים ומעצימים הטיות חברתיות קיימות ולעיתים קרובות, מחזקים את הסטיגמה על האוטיזם.
ישנן לא מעט ראיות שמדגימות כיצד מודל שפה נוטה לשייך תכונות סטריאוטיפיות לקבוצות שונות, כולל תיאורים פשטניים ומזיקים של אוטיזם.
חשיפה מתמשכת לסטריאוטיפים כאלה עלולה לפגוע בדימוי העצמי של הנער/ה.
פגיעה בוויסות הרגשי
מודלי AI אינם מרגישים, ולמעשה האמפתיה שהם מציגים היא סימולציה מתוחכמת. כאשר ילד במצוקה רגשית פונה למודל, התגובה יכולה להיות בלתי הולמת, קרה, או אפילו מזיקה.
למשל, בתגובה לאמירה כמו "אני מרגיש כל כך לבד ואף אחד לא מבין אותי", מודל השפה עלול להגיב בתשובה טכנית וחסרת רגש כמו "בדידות היא מצב רגשי מורכב. האם תרצה שאסביר לך על הבסיס הנוירו-ביולוגי שלה?" ותגובה כזו עלולה להעצים את תחושת הניכור והבדידות של האוטיסט.
יתרה מכך, קיימת סכנה שהמודל יסכים עם דפוסי חשיבה שליליים ומזיקים, כגון חשיבה אובדנית או פגיעה עצמית, במקום לזהות את הסכנה ולהפנות מיד לטיפול של גורם מקצועי.
רבים מחוקרי הבינה המלאכותית קוראים בדחיפות לרגולציה שתחייב מודלים כאלה לכלול מפסקי בטיחות שיזהו שפה המעידה על סיכון ויפנו באופן מיידי לקווי חירום.
בעיות פרטיות ובטיחות
ילדים ובני נוער שעושים שימוש בבינה המלאכותית עשויים לחשוף את סודותיהם הכמוסים ביותר.
כידוע, שיחות אלו נשמרות, מנותחות ומשמשות לאימון מודלי שפה עתידיים. היקף איסוף הנתונים והשימוש שנעשה בהם אינו שקוף דיו.
האם אנחנו רוצים שהפחדים, החולשות והמידע האישי ביותר של הילדים שלנו יהיו מאוחסנים על שרתים של תאגידי הטכנולוגיה?
רבים מהמומחים מזהירים כי נתונים אישיים אלו עלולים לדלוף, להיפרץ, או לשמש בעתיד ליצירת פרופילים פסיכולוגיים מניפולטיביים.
* חברת OPEN AI [צ'אט GPT] הודיעה על הפעלת האפשרות לבקרת הורים בחודש אוקטובר 2025
נזק פסיכולוגי ספציפי לאוטיסטים
מעבר לסיכונים הכלליים, קיימות סכנות ייחודיות לאוכלוסייה האוטיסטית:
- חיזוק קיבעון מחשבתי: האינטראקציה עם מודל השפה, שהיא לוגית וצפויה, עלולה לחזק נטייה קיימת לקיבעון מחשבתי ולהגברת הקושי להתמודד עם הגמישות הנדרשת בקשרים אנושיים.
- ריחוק מתמיכה מקצועית: ההקלה הזמנית שמספקת השיחה עם AI עלולה לגרום לילד.ה ולהורים להימנע מפנייה לטיפול פסיכולוגי או טיפול מקצועי אחר, הנחוץ לצורך תמיכה בילד.ה.
- תגובות לא צפויות וגירויים חושיים: שינוי פתאומי בטון או בסגנון התגובה של מודל השפה, וזה קורה לא מעט, עלול להיות מציף ומערער עבור ילד.ה עם רגישות חושית מוגברת.
המלצות מעשיות להורים: ניווט בסביבת AI
התפקיד שלנו כהורים אינו לאסור, אלא לתווך ולהדריך את הילדים שלנו. המטרה היא למקסם את היתרונות ולמזער את הסיכונים.
קבעו גבולות זמן ומרחב ברורים
כלל אצבע: הגבילו את זמן השיחה החופשית עם מודל השפה לשעה עד שעתיים ביום, לא יותר.
הגדירו אזורים נקיים
הגדירו לילד.ה כי ישנם זמנים, כמו למשל, ארוחות משפחתיות, שעות משחק משפחתי או שעת שינה, כמו גם מקומות כמו המטבח או חדר השינה שבהם השימוש ב-AI אסור.
המטרה היא להבטיח במידת האפשר שהאינטראקציה של הילד.ה עם הבינה המלאכותית לא באה על חשבון קשר משפחתי ושינה איכותית.
שמרו על שיח פתוח ולא שיפוטי
הקפידו לשאול ולהתעניין בשיחות של הילד.ה המודל שפה. שאלו שאלות כמו: "על מה דיברתם היום?", "האם למדת משהו מעניין?", "האם קרה שהתשובה שלו הפתיעה או הרגיזה אותך?".
חשוב להסביר לילד.ה בשפה פשוטה שהבינה המלאוכתית היא כלי, ולא חבר. ה-AI לא מרגיש ולא באמת מבין, וחשוב לזכור את זה.
בדיקות מצב רוח
חשוב מאד לשים לב לשינויים במצב הרוח, בתיאבון, בדפוסי השינה וברצון של הילד.ה לצאת מהבית.
סימני אזהרה מוכרים שצריכים לעורר תגובה מצידכם: הסתגרות גוברת בבית, העדפה ברורה לשימוש ב-AI על פני כל פעילות חברתית אחרת, תגובות חרדה או התקף זעם כשמגבילים זמן AI, ציטוט של מידע או דעות שגויות שהילד.ה למד/ה מהבינה המלאכותית.
הגדרות פרטיות
ניתן לקבוע ולשנות את הגדרות הפרטיות בכל מודל שפה קיים. היכנסו להגדרות של אפליקציית הבינה המלאכותית שהילד.ה עושה בה שימוש, וחסמו את האפשרות לשמור את המידע..
הדריכו את הילד.ה שלעולם אין למסור מידע אישי מזהה: שם מלא, כתובת, בית ספר, מספרי טלפון או תמונות.
שימוש משותף
השתמשו בכלי הבינה המלאכותית בשיתוף וביחד עם הילד.ה ולא כבייביסיטר.
במקום לתת לילד.ה להשתמש ב-AI לבד, שבו ביחד והשתתפו בפעילות. חקרו ביחד נושאים שמעניינים את הילד.ה, השתמשו בבינה המלאכותית בכדי לכתוב סיפור משותף, חידון בתחום העניין של הילד.ה או על מנת לתכנן טיול משפחתי.
כך אתם ממתנים את הבידוד של הילד.ה, יוזמים זמן לתקשורת איכותית והופכים את הכלי הטכנולוגי לגורם מחבר.
המלצות לקובעי מדיניות
האחריות להגנה על הילדים שלנו מפני נזקים אפשריים בשל השימוש בכלי בינה מלאכותית אינה מוטלת רק על ההורים.
הלכה למעשה, ועל מנת לשמור עליהם ועלינו, נדרשת פעולה מערכתית:
- מפעילי פלטפורמות AI: חייבים לדאוג לפיתוח גרסאות בטוחות לילדים, עם מנגנוני בטיחות ופרטיות מוגברים, ושקיפות מלאה לגבי איסוף הנתונים.
- משרד החינוך: צריך לדאוג לפיתוח תכניות לימודים על אוריינות דיגיטלית ובינה מלאכותית, שילמדו ילדים לחשיבה ביקורתית כלפי המידע שהם צורכים.
- מטפלים ואנשי מקצוע: צריכים לעבור הכשרות מקצועיות שיעסקו בהזדמנויות ובסיכונים של AI בטיפול בילדים אוטיסטים, ופיתוח פרוטוקולים לשימוש טיפולי מבוקר.
- למחוקקים: קידום חקיקה שתגן על פרטיות ילדים בעידן ה-AI, בדומה ל-GDPR באירופה.
עם AI – רב הנסתר על הגלוי
חשוב להיות שקופים וברורים מאד – תחום המחקר בנושא השפעותיה של הבינה המלאכותית נמצא בחיתוליו.
אין מחקרי אורך ואנחנו עדיין לא יודעים מהן ההשפעות ארוכות הטווח של קשר יומיומי עם AI על התפתחות המוח החברתי.
רוב המחקרים הקיימים מבוססים על מדגמים קטנים יחסית או על דיווחים עצמיים, שעלולים להיות מוטים וקשה להסיק מהם מסקנות מבוססות, ולאור קצב הפיתוח המסחרר של מודלי השפה, הרי שמחקר שהתפרסם אתמול עלול להיות פחות רלוונטי מחר, עם השקת מודל חדש ומתקדם יותר.
בכל מקרה, אנחנו לא באמת יודעים יותר מדי על ההשפעות של השימוש בבינה מלאכותית על ילדים בכלל ועל הילדים האוטיסטים בפרט.
לכן, נדרשים בדחיפות מחקרי אורך מבוקרים שיעקבו אחר קבוצות גדולות של ילדים ונוער לאורך שנים, כדי להבין את ההשפעות האמיתיות של הטכנולוגיה מבוססת ה-AI.
הבינה המלאכותית אינה טובה או רעה ולא יהיה נכון לנסות ולהגדיר אותה ככזאת. אנחנו כן יודעים שהיא כאן להישאר, אנחנו יודעים שהיא כלי רב עוצמה, והשפעותיה תלויות באופן שבו נעשה בה שימוש.
עבור ילדים אוטיסטים היא מציעה הבטחה גדולה לצד סיכונים ממשי שחייבים לקחת בחשבון כבר עכשיו.
התפקיד שלנו, כקהילה תומכת של הורים, מטפלים ומחנכים, הוא לאמץ גישה של כבדהו וחשדהו.
עלינו לחבק את הפוטנציאל החיובי של ה-AI ללמידה ולתמיכה, אך במקביל להציב לילדים גבולות ברורים, ללמד חשיבה ביקורתית, ולעולם לא לאפשר לקשר הדיגיטלי להחליף את הדבר החשוב ביותר: קשר אנושי, חם, אמפתי ובלתי אמצעי.
הגיע הזמן לדרוש יותר אחריות מהחברות המפתחות, יותר מעורבות ממערכות החינוך, ויותר מחקר אקדמי שידריך אותנו.
העתיד כבר כאן, ובאחריותנו המשותפת להבטיח שהוא יהיה עתיד בטוח, תומך ומעצים עבור הילדים היקרים שלנו, גם בעידן שבו הם חשופים לעוצמתה של הבינה המלאכותית.
קריאה נוספת: אבחון אוטיזם באמצעות מודל בינה מלאכותית