מדיה

אסטרטגיה

מי שומר עלינו מהבינה המלאכותית?

אנחנו כאנשי מקצוע שעובדים רבות מול המחשב ובריבוי משימות ופרויקטים, מכירים היטב את התחושה: עומס המשימות גדול, הלחץ לתוצאות מהיר – ואז אנחנו פונים לחברנו הטוב, ה-AI Chat ששינה את חיינו, שמבטיח לחסוך לנו יעילות, חיסכון בזמן, חישובים מדויקים וכל מה שנבקש ממנו פחות או יותר. עם זאת ועם כל כוונותיהם הטובות של הצ'אטים למיניהם, יש סיכונים אמיתיים בשימוש בהם – בנפש ובתפקוד. אבל לא לדאוג, נציג גם פתרונות להתמודדות הן כמנהלים והן כאנשים פרטיים.

מחקר עדכני שהתפרסם ב-2023 בחן את השפעת ה-AI על סטודנטים בסין ופקיסטן. לפי הנתונים, 68.9% מהמשתמשים הרגישו עלייה בעצלות, 68.6% דיווחו על חששות לפרטיות, ו-27.7% על ירידה בכושר קבלת ההחלטות העצמית שלהם. כלומר, לא מדובר רק ב"עוזר דיגיטלי" – אלא בטכנולוגיה שיכולה להפוך להרגל מנוון הפוגע ביכולות בסיסיות של שיפוט, אחריות, ואפילו יוזמה.

מחקר סוציולוגי רחב יותר שפורסם תחת הכותרת “Negative Impacts of AI on Society” מציג קשת רחבה של חששות – החל בפערים כלכליים שנוצרים בעקבות ריכוזי ידע וטכנולוגיה בידי מעטים, דרך תהליכי קבלת החלטות אוטומטיים שמנציחים אפליה, ועד לדאגות קיומיות סביב שקיפות, פרטיות והיבטים מוסריים. ה-AI לא עונה אמת "אובייקטיבית", אלא מוטה גם מחדשות, פוליטיקה וכו' – כך שישנם הקשרים סוציולוגיים עמוקים במענים שלו לשאלותינו.

כדי לתת פתרון לכך, ממשלת הוד מלכותו (בריטניה) פרסמה "ארגז כלים", שמטרתו לעזור למנהלים לזהות מראש את הסיכונים הסמויים של מערכות AI ולתכנן סביבם תהליך עבודה מיטבי. המסמך ממליץ על חמש פעולות עיקריות ומביא מתודות עבודה ותרשימים מתאימים:

  • להבין את ההקשר של הטכנולוגיה – מיהם המשתמשים, מה עלול לקרות, גם בלי כוונה.
  • למפות נזקים אפשריים – לפרט, לקבוצות, לשירותים ציבוריים ולחברה.
  • לקבוע מנגנוני בקרה – מראש, תוך התאמה לצרכים משתנים.
  • לבדוק, למדוד, לתקן – לא רק בשלב הפיתוח אלא גם תוך כדי שימוש.
  • לעבוד בשיתוף עם בעלי עניין – כי לא כל נזק ניתן לזהות מתוך הקוד עצמו.

היכן נמצא האדם בלולאה?

אחד המסרים המרכזיים של הוא הצבה נכונה של האדם במערכת הפועלת לצד AI. התרשים מציג שלושה תרחישים: במודל הראשון, ה-AI מקבל החלטות באופן כמעט עצמאי (AI-first), האדם מעורב בשוליים בלבד; במודל השני (human-on-the-loop), האדם מקבל את תוצרי המערכת, אך נדרש רק לאשר או לשלול בדיעבד; ובמודל השלישי – (human-in-the-loop), שהוא המומלץ – האדם מעורב בכל שלב מרכזי: מהגדרת היעדים, דרך הבנת תהליך הניתוח ועד קבלת ההחלטה עצמה.

תרשים 4 מתוך: Guidance The Mitigating ‘Hidden’ AI Risks Toolkit (HTML) / 4 June 2025

גישה זו מחזירה את האחריות האנושית למרכז ומדגישה: גם כשיש כלי חכם בצד – אנחנו אלו שצריכים להישאר אלה שמבינים, מפקחים, ושומרים על ההקשר האנושי, הערכי והמקצועי שבו מתקבלות ההחלטות.

וכדי לחסוך לכם – מה כן ניתן לעשות גם באופן אישי ופרקטי (ובתקווה שזה לא נדוש ושמעתם את זה עשרות פעמים)? ההמלצות החוזרות בכתבות, ג'ורנלים ובלוגים שונים (שאינם אקדמיים) כוללות צעדים פשוטים שיכולים להטמיע איזון נכון בשימוש ב-AI:

  • הגדירו מראש מה מטרת השימוש ב-AI בכל משימה – האם הוא בא להשלים את עבודתכם, ולא להחליף אותה (כמו שאתם באים לתכנן ניתוח נתונים באקסל, מה אתם רוצים שהנוסחה תעשה?).
  • הקדישו לפחות 20 דקות ביום לפעילויות אופליין שמפעילות את המוח – כמו קריאת ספר, פתרון חידות, סודוקו בעיתון וכו'.
  • פקפקו ואמתו כל מידע חשוב שהתקבל מה-AI ואל תוותרו על שיקול דעת אנושי.
  • הניעו את הגוף – קומו, עשו מתיחות או הליכה קצרה פעם בשעה (חיבור בריאות הגוף והמוח).
  • בדקו והגדירו את העדפות הפרטיות שלכם בכל מערכת AI שבה אתם משתמשים.
  • שמרו על תקשורת בין-אישית ומקצועית גם בהפקת מסקנות ולא בהמסתך על בינה מלאכותית.

לסיכום, הבינה המלאכותית מציעה עולם חדש של אפשרויות. אבל ככל שהיא משתפרת – כך גובר גם הסיכון שנאבד את הקול האנושי שבבסיס העשייה שלנו. השאלה היא לא אם להשתמש ב-AI, אלא איך. וכמובן שנעזרתי ב-AI לכתוב את הכתבה – אבל קראתי את החומרים, שכתבתי אותם, הגעתי עם דעה ומסקנות מראש, כך שלא הוחלפתי כחושב, רק השתמשתי במחשב.

התמונה נוצרה ב- Google AI Studio.

מקורות:

Ahmad, Sayed Fayaz, Heesup Han, Muhammad Mansoor Alam, Mohd. Khairul Rehmat, Muhammad Irshad, Marcelo Arraño-Muñoz, and Antonio Ariza-Montes. “Impact of Artificial Intelligence on Human Loss in Decision Making, Laziness and Safety in Education.” Humanities and Social Sciences Communications 10, no. 311 (2023). https://doi.org/10.1057/s41599-023-01787-8.

Department for Science, Innovation and Technology (UK). The Mitigating Hidden AI Risks Toolkit. London: UK Government, 2024. https://www.gov.uk/government/publications/mitigating-hidden-ai-risks-toolkit.

Nagaraja, V. “Negative Impacts of Artificial Intelligence and Use of Artificial Intelligence for the Benefits on Human Society.” Quest Journals: Journal of Research in Humanities and Social Science 6, no. 8 (2018): 62–64. https://www.questjournals.org/jrhss/papers/vol6-issue8/K686264.pdf.

רועי לוטן | Business Analyst

דברו איתנו

מעוניינים בתהליך צמיחה משמעותי?

מלאו את הפרטים שלכם ואנחנו נעשה את השאר

    תפריט נגישות