בקצרה: AI גנרטיבי מעלה שאלות משפטיות פתוחות בישראל: מי מחזיק בזכויות יוצרים על תוכן שנוצר? האם אימון מודל על תוכן מוגן מהווה הפרה? ומי אחראי לנזק שגרם AI? בישראל אין עדיין חוק ייעודי ל-AI, אך חוק זכות יוצרים, חוק הגנת הפרטיות ופקודת הנזיקין כבר חלים.

מה שה-AI מייצר — שייך למי?

ChatGPT, Midjourney, DALL-E — כלי ה-AI הגנרטיביים שינו את שוק יצירת התוכן. אבל מאחורי כל תמונה שנוצרת ב-10 שניות מסתתרת שאלה שבתי המשפט בכל העולם עדיין מנסים לפתור: מי בעלים של מה שה-AI יצר?

לפי חוק זכות יוצרים, תשס"ח-2007, זכות יוצרים מוקנית ל"יוצר" — ויוצר מוגדר כאדם. ה-AI אינו אדם, אינו בר משפטי, ואינו יכול להחזיק בזכויות. כלומר: תוכן שנוצר אוטומטית על ידי AI ללא מעורבות יצירתית של אדם — עשוי לפול לנחלת הכלל, ולא להיות מוגן.

מה שכן מוגן: אם אדם כתב פרומפט מקורי ומפורט, ביצע עריכה משמעותית, וניהל את תהליך היצירה — בית משפט ישראלי עשוי לראות בו יוצר משותף. אבל קו הגבול עדיין לא ברור. ⚠️

אימון AI על תוכן מוגן: הפרה או שימוש הוגן?

מודלי AI גנרטיביים אומנו על כמויות עצומות של טקסט, תמונות ומוזיקה — רובם מוגנים בזכויות יוצרים. בארה"ב, OpenAI, Stability AI ו-Google עומדים בפני תביעות ענק של כותבים, אמנים ועיתונים. בישראל, השאלה פתוחה.

סעיף 19 לחוק זכות יוצרים, תשס"ח-2007, מגדיר "שימוש הוגן" — שימוש ביצירה מוגנת ללא אישור בעל הזכות, לצרכים כגון מחקר, לימוד, ביקורת. האם אימון מודל AI עולה לכדי "שימוש הוגן"? לא נקבעה עמדה ישראלית ברורה בנושא. ⚠️

חברות ישראליות שמפתחות מודלי AI חייבות לתעד את מקורות נתוני האימון שלהן. בית משפט ישראלי שיידרש לשאלה ישקול: מה מטרת השימוש, האם ה-AI מחליף את השוק המקורי, ומה ההשפעה הכלכלית על בעל הזכות.

EU AI Act — רלוונטי גם לכם

תקנת ה-AI האירופאית (EU AI Act), שנכנסה לתוקף בשלבים מ-2024, מסווגת מערכות AI לפי רמת סיכון: בסיכון גבוה (ביומטריה, מיון עובדים, ניקוד אשראי), בסיכון מוגבל, ובסיכון מינימלי. על מערכות ב"סיכון גבוה" חלות חובות שקיפות, תיעוד ופיקוח אנושי.

חברה ישראלית שמספקת שירות AI ללקוחות באירופה — חלה עליה התקנה. זה לא עניין תיאורטי: כל SaaS ישראלי עם משתמשים אירופאים שמשלב AI חייב לבחון את עמידתו ב-AI Act. ⚠️

אחריות משפטית: כשה-AI טועה — מי משלם?

AI גנרטיבי "מזייף" — מה שנקרא "hallucination". הוא עלול לייצר מידע רפואי שגוי, לייחס ציטוטים לאנשים שלא אמרו דבר, או לייצר תוכן מטעה. כשנגרם נזק — מי אחראי?

לפי פקודת הנזיקין [נוסח חדש], אחריות ניזיקית דורשת קשר סיבתי בין מעשה לנזק. מי "עשה" כאן? ספק ה-AI? המפתח שמשלב אותו? המשתמש? בהיעדר חקיקה ייעודית, ישראל תישען על דיני הנזיקין הכלליים — ויתכנו טענות של אחריות מוצר, רשלנות, ואחריות שילוחית בהתאם לנסיבות.

מסמך רשמי שנוצר על ידי AI ומכיל שגיאת עובדה, ייעוץ רפואי שגוי שסייע לו AI, חוזה עם סעיף בעייתי שנוסח על ידי AI — אלה ערכי תביעה אפשריים שכבר עולים בעולם ועוד יגיעו לישראל.

פרטיות: מה ה-AI עושה עם המידע שאתם מזינים

כשאתם מזינים נתונים לכלי AI — מסמכים, שמות לקוחות, פרטים רפואיים — אתם מעבירים מידע לשרת של ספק זר. לפי חוק הגנת הפרטיות, תשמ"א-1981 ותקנות אבטחת מידע תשע"ז-2017, העברת מידע אישי לגורם שלישי מחייבת הסכמה, הסכם עיבוד נתונים (DPA), ומינימום חשיפה.

עורכי דין, רואי חשבון ורופאים שמזינים מידע לקוחות לכלי AI — עלולים להפר חובות סודיות מקצועית וחוק הגנת הפרטיות במקביל. האתגר: רוב ספקי ה-AI המובילים מבוססי ענן בחו"ל, ולתנאי השירות שלהם יש השלכות ישירות על ציות לחוק הישראלי.

מה ישראל עושה — ומה תעשה בקרוב

נכון ל-2026, ישראל אינה מחייבת רישוי מיוחד לפתרונות AI גנרטיביים. עם זאת, מספר גופים פרסמו הנחיות: רשות הגנת הפרטיות (PPA) פרסמה מסמך עמדה על AI ופרטיות; משרד המשפטים עוסק בשאלות אחריות; ורשות ניירות ערך בוחנת שימוש ב-AI בייעוץ פיננסי. אין "חוק AI ישראלי" בינתיים — אך הכיוון ברור: השוק יוסדר. ⚠️

עסקים שמטמיעים AI עכשיו ייצרו לעצמם יתרון אם יתעדו: מקורות נתונים, שרשרת אחריות, בדיקות איכות ומנגנון פיקוח אנושי. אלה יהיו הדרישות המינימליות של כל רגולציה עתידית.

קראו גם:

📌 זווית מקצועית — לעורכי דין

הבהרה משפטית: המידע במאמר זה נועד לצרכי מידע כללי בלבד ואינו מהווה ייעוץ משפטי, חוות דעת או תחליף להתייעצות עם עורך דין. כל מקרה ייחודי ויש לבחון אותו לגופו. אין ליישם את המידע ללא ייעוץ משפטי פרטני.