המלכודת של קלוד: בית המשפט בניו יורק קבע – התייעצות עם AI אינה חסויה
מאת: עו”ד יוסי סיוון
פסיקה דרמטית מהימים האחרונים (10 בפברואר 2026) בבית המשפט הפדרלי במנהטן מטלטלת את עולם המשפט והטכנולוגיה: מסמכים שנוצרו באמצעות בינה מלאכותית לצורך הגנה משפטית אינם מוגנים תחת חיסיון עו”ד-לקוח. השופט ג’ד רקוף שלח מסר חד למנהלים: ה-AI הוא “צד שלישי”, וכל מילה שתכתבו לו עלולה להפוך לראיה נגדכם.
במשך עשורים, המשולש הקדוש של “לקוח, עורך דין וסודיות” היה בלתי ניתן לחדירה. אבל מה קורה כשהצלע השלישית במשולש הזה היא לא בן אדם, אלא אלגוריתם של חברת Anthropic או OpenAI? פסק דין תקדימי בתיק United States v. Heppner (25-cr-00503-JSR) קובע גבול ברור: הבינה המלאכותית היא לא עורכת הדין שלכם, והיא בהחלט לא שומרת סוד.
כרוניקה של הפללה עצמית דיגיטלית: מה עשה בראדלי הפנר?
הסיפור התחיל בבראדלי הפנר, מייסד חברת הפיננסים Beneficient, שעמד בפני אישומים חמורים של הונאת ניירות ערך. בניסיון להבין את מצבו המשפטי ולגבש אסטרטגיה, הפנר פנה ל-Claude, הצ’אטבוט של חברת אנתרופיק. הוא לא הסתפק בשאלות כלליות, אלא ביצע פעולות אקטיביות שסיבכו אותו:
- ניתוח חשיפה משפטית: הוא הזין לצ’אטבוט נתונים פיננסיים פנימיים וביקש ממנו להעריך את סיכויי ההרשעה שלו.
- בניית קו הגנה: הוא ביקש מה-AI לנסח טענות נגד שיכולות להסביר את פעולותיו באופן חוקי.
- יצירת “סיכומים לפרקליט”: הוא הפיק כ-31 מסמכים שכללו את השאילתות (Prompts) שלו ואת תשובות המערכת, במטרה להעבירם מאוחר יותר לעורכי דינו.
כאשר רשויות האכיפה הפדרליות פשטו על מכשיריו של הפנר, הן תפסו את היסטוריית הצ’אט המלאה. סנגוריו זעקו “חיסיון”, אך התביעה טענה כי מדובר במסמכים שגלויים לצד שלישי.
השופט רקוף: “בינה מלאכותית היא לא עורכת דין”
השופט הפדרלי ג’ד רקוף (Jed Rakoff), הידוע בפסיקותיו החדות, דחה את טענת החיסיון ב-10 בפברואר 2026, וסיפק שלושה נימוקים שצריכים להדליק נורה אדומה לכל מנהל:
- ויתור על סודיות: תנאי השימוש של חברות ה-AI מבהירים שהמידע אינו סודי לחלוטין (הוא עשוי לשמש לאימון מודלים או להיחשף לרשויות). “ברגע שהזנת מידע לכלי שיודע לקרוא אותו ולשמור אותו בשרת חיצוני, ויתרת על הציפייה הסבירה לפרטיות,” קבע רקוף.
- מבחן הצד השלישי: החיסיון המשפטי פוקע ברגע שהמידע נחשף לצד שלישי שאינו הכרחי לניהול התיק. בניגוד למתורגמן או מומחה שנשכר על ידי עורך הדין, ה-AI נתפס ככלי חיצוני וציבורי.
- אין “חיסיון רטרואקטיבי“: העובדה שהפנר שלח מאוחר יותר את תוצרי ה-AI לעורכי הדין שלו לא “מטהרת” את המידע. אם המקור לא היה חסוי ברגע היווצרו – הוא לא יהיה חסוי לעולם.
הזווית הישראלית: האם זה יכול לקרות כאן?
למרות שהפסיקה ניתנה בניו יורק, המרחק לבית המשפט המחוזי בתל אביב קצר מכפי שנדמה. בישראל, חיסיון עו”ד-לקוח (לפי סעיף 48 לפקודת הראיות) מותנה בכך שהתקשורת היא עם עורך דין מוסמך.
בתי המשפט בישראל נוטים לאמץ סטנדרטים אמריקאיים בכל הנוגע לטכנולוגיה וראיות דיגיטליות. סביר להניח ששופט ישראלי יאמץ את קביעת השופט רקוף: שימוש בכלי חיצוני שאינו מחויב לסודיות סטטוטורית (כמו עו”ד) מהווה ויתור על הפרטיות.
המסקנה ברורה: הצ’אטבוט הוא עד מדינה פוטנציאלי.
המלצות זהב למנהלים ויועצים משפטיים
כדי לא למצוא את עצמכם במצבו של בראדלי הפנר, מומלץ לאמץ את הכללים הבאים בארגון:
- איסור גורף על נתונים מזוהים: לעולם אל תזינו שמות של מעורבים או פרטים ספציפיים על סכסוך משפטי לתוך כלי AI ציבורי.
- הפרדה בין “טיוטה” ל”ייעוץ”: אל תציינו בתוך הפרומפט שזהו “חומר להכנת הגנה משפטית” – זהו “נשק יום הדין” עבור התביעה.
- מעבר לגרסאות Enterprise: השתמשו רק בגרסאות עסקיות סגורות (כמו ChatGPT Enterprise) המבטיחות חוזית שהמידע אינו משמש לאימון ואינו חשוף לעובדי החברה המפתחת.
- נוהל “AI תחת הנחיית עו”ד“: אם אתם חייבים להשתמש ב-AI לצרכים משפטיים, ודאו שזה נעשה לבקשתו המפורשת ובכתב של עורך הדין, כדי לנסות ולשמר את טענת “חיסיון תוצרי עבודה”.
- תיעוד הגנות פרטיות: רשמו ביומני פריבילג’ (privilege logs) בבירור את השימוש בכלי AI, את הציפייה לסודיות, ואת העובדה שהתקשורת משקפת ייעוץ משפטי או נעשתה בהנחיית עורך דין.
הבינה המלאכותית יכולה להיות עוזרת מחקר מצוינת לשאלות כלליות, אבל ברגע שהשיחה הופכת לניתוח משפטי של מצב חקירתי או התדיינות משפטית פעילה – עדיף להשאיר את המקלדת בצד ולחזור לשיחה פנים אל פנים עם עורך דין בשר ודם, ורצוי בחדר סגור ללא מכשירי הקלטה. כפי שלמדנו מהמקרה של הפנר: מה שנאמר ל-Claude, עלול להגיע לבית המשפט.
אין באמור משום ייעוץ משפטי ומומלץ לפנות לעורך דין הבקיא בתחום בכל שאלה.
הכותב הוא עורך דין המתמחה בקניין רוחני, סייבר וטכנולוגיית AI.


