טראמפ והפנטגון הכריזו מלחמה על איראן ועל אנתרופיק

ניתוק קשר עם אנתרופיק בעקבות סירובה לאפשר שימוש ב-AI לנשק אוטונומי ולמעקב. ביטול מיידי של כל החוזים הממשלתיים עם מפתחת קלוד והכנסתה לרשימה השחורה של הממשל. טראמפ פרסם ברשת Truth Social ושר המלחמה, פיט הגסת', הודיע גם שהחברה תוגדר "סיכון לשרשרת האספקה לביטחון הלאומי", הגדרה שלרוב מתיחסת לחברות עם קשרים ישירים למדינות כמו סין ורוסיה. קבלנים שעובדים עם הצבא יחויבו להוכיח שאינם משתמשים במוצרי אנתרופיק.

ולמה?
החברה סירבה לאפשר שימוש במודל השפה קלוד למעקב בתוך ארה"ב (אחרי אזרחים ותושבים) ולפיתוח נשק אוטונומי. דאריו ודניאלה אמודאי הקימו את החברה תוך הדגשת בטיחות ואתיקה. תגובתם שיערערו בבית משפט על סיווגה כ"סיכון לשרשרת האספקה".

החלפת רכיב כמו מודל AI שמוטמע במערכות קריטיות, כמו Maven Smart System שהוא כלי מודיעין מתקדם של הפנטגון בענן של אמזון בשילוב טכנולוגיה של פלנטיר, זה מורכב. הוצאת המודל מחייבת התאמות API וקוד. בטווח הקצר יכולות עיבוד נתונים של ארה"ב כנראה ייפגעו.

אילון מאסק יישר קו עם הממשל. סם אלטמן מ-OpenAI (משם פרשו דאריו ודניאלה) הביע תמיכה בעמדת אנתרופיק נגד שימוש ב-AI למעקב אחרי אזרחים, אבל החברה שלו חתמה על הסכמים עם משרד המלחמה.


למעשה,
אנתרופיק חשפה איך הממשל רוצה להשתמש בבינה מלאכותית בדרכים שמנוגדות לדמוקרטיה, אולי להזיק לאזרחים ולסכן את עתיד האנושות.
דר' רועי צזנה ציין כי זה כבר התברר בוונצואלה, כשבתחילת השנה ממשלת ארה"ב שיגרה 150 מטוסים, מסוקים וכלי-טיס בלתי-מאוישים. חלקם נשאו חיילים אמריקניים חמושים בכלי-נשק מתקדמים. הם פלשו למתחם הפרטי של שליט ונצואלה, ניקולס מאדורו, וחטפו אותו ואת אשתו.
התגובה – רוב הציבור האמריקני הריע לכוחות הביטחון שהביאו אותו למשפט בארה"ב.
אבל ..
אנתרופיק החלו להישאל על מעורבות הטכנולוגיה של החברה במבצע זה, ובשימוש צבא ארצות-הברית בכלל.

לאנתרופיק יש חוזה של 200 מיליון דולר עם משרד המלחמה, אך המוניטין שלה נבנה על התחייבות ל"בטיחות בינה מלאכותית". כלומר, ווידוא שהבינה המלאכותית תשרת את טובת האנושות.
בעיתונות דווח כי משרד המלחמה השתמש בבינה המלאכותית של אנתרופיק כדי להוציא לפועל את הפלישה לוונצואלה. ההשערה היא שהבינה המלאכותית של אנתרופיק עזרה לנתח מודיעין ולהפעיל כלי-טיס אוטונומיים ביעד. 
אנתרופיק לא מתנגדים למלחמה באופן עקרוני, אבל לא מוכנים להפוך כלי-נשק לאוטונומיים לגמרי בלי הרבה מקדמי ביטחון. מטרתם להבטיח שהבינה המלאכותית לא תיפגע בבני אדם. ומכיון שהיא רחוקה מלהיות מושלמת, לא ברור איך רובוטים יתנהלו בשדה הקרב.
טעות של בינה מלאכותית יכולה לעלות בחיי חפים מפשע.

אנתרופיק הביעה התנגדות במייל למשרד המלחמה. אך זה דלף לעיתונות.
דאריו אמודיי, מנכ"ל אנתרופיק, הגיע לפנטגון כדי ליישר הדורים. שר המלחמה אמר לו שאנתרופיק צריכה לשתוק ולציית לדרישות משרד המלחמה, ואם לא – תוגדר כ- "סכנה לשרשרת האספקה". ובנוסף, הממשלה תכפה עליה לפעול עבורה במסגרת "חוק הייצור לצורכי ביטחון".
טראמפ לא חיכה זמן רב ושחרר הצהרות ברשת החברתית, תוך האשמת אנתרופיק כ"ווקית" וגם "שמאלנית-קיצונית שיצאה משליטה". טראמפ הצהיר שאם החברה לא תשתף פעולה, הוא "ישתמש בכוח המלא של הנשיאות כדי להכריח אותם לציית, עם השלכות אזרחיות ופליליות גדולות שעוד יגיעו".

אמודאי פרסם ב- 26 לפברואר סירוב לפעול לצד הממשל נגד האזרחים.
"אני מאמין מעומק-הלב שיש חשיבות קיומית לשימוש בבינה המלאכותית להגנה על ארצות-הברית והדמוקרטיות האחרות, ועל מנת להביס את אויבינו האוטוקרטים".
אמודאי ציין כי אנתרופיק הייתה חברת הבינה המלאכותית המובילה הראשונה שהרשתה לממשלה להשתמש בשירותיה ברשתות מסווגות. היא הראשונה שהתאימה מודלים ספציפית לצרכים הבטחוניים של אמריקה. במקביל, החברה סירבה לאפשר ללקוחות שקשורים לממשלה הסינית להשתמש במוצרים שלה. 
אמודאי הוסיף שממשלת ארה"ב עברה את הקווים האדומים של החברה.
".. אנו מאמינים שהבינה המלאכותית יכולה לחתור תחת הערכים הדמוקרטיים, במקום להגן עליהם. שני מקרים כאלו לא נכללו מעולם בחוזים שלנו עם משרד המלחמה, ואנו מאמינים שהם לא צריכים להיכלל גם עכשיו".
– קו אדום ראשון – מעקב נרחב אחר אזרחי ארה"ב. אמודאי הבהיר שתחת החוק הנוכחי, הממשלה יכולה להפיק מידע מפורט על פעולות של אזרחים אמריקניים בעולם הדיגיטלי (כמו גלישה ברשת) ובעולם הפיזי. הבינה המלאכותית יכולה לקבץ פיסות מידע מפוזרות ו'תמימות' ולהרכיב פרופיל מקיף של כל אדם באופן אוטומטי. כל אזרח אמריקני נבחן כל יום, כל היום. זה מותר לפי החוק כיוון שהחוק לא מתעדכן בקצב התואם את התפתחות הבינה המלאכותית.
כוח משחית ולכן בדמוקרטיה יש הגבלות על כוח הממשל והוא מפוצל בין שלוש רשויות. ממשלה שיכולה לדעת הכל על אזרחיה, ונטולת עכבות מוסריות, יכולה לדכא מתנגדים במגוון צורות, לאתר עבירות קטנות מהעבר, לפרסם תמונות ופרטים מכפישים וכדומה. היא יכולה גם לאתר מתנגדים ובאמצעי שכנוע שונים לגרום להם להתאבד, כפי שקורה ברוסיה ובמדינות טוטליטריות.
– קו אדום שני – שימוש בבינה מלאכותית לשליטה מוחלטת בכלי נשק. כלומר, כלי-נשק אוטונומיים לגמרי, שיכולים לבחור במי לירות וללחוץ על ההדק ללא מעורבות אנושית. אמודאי לא טוען שנשקים אוטונומיים לא נדרשים, אבל מציין כי לא הגענו למצב של בטיחות מספקת. לדבריו, נשקים אוטונומיים לגמרי עשויים להיות קריטיים להגנה הלאומית אבל מערכות בינה מלאכותית כיום עדיין לא אמינות מספיק לנשקים אוטונומיים לגמרי. ולכן, לא יספקו ביודעין מוצר שעלול לסכן לוחמים ואזרחים. לנשקים אלה נדרשות מגבלות ראויות, שלא קיימות היום.
איך אנתרופיק יכולה לדעת אם נשקים אוטונומיים מתקדמים באמת אמינים מספיק לשימוש. ומי קובע את הרמה של אמינות מספקת.
אנתרופיק, שעבדה בצמוד למשרד המלחמה, סבורה שכלי נשק אלה עדיין לא בטוחים מספיק. 
אמודאי אמר – "עד כאן". 
הממשל שרף את הקשר הזה, בהצהרה שלא יעשו איתם עסקים שוב.

חברות שעובדות עם הפנטגון – כמו לוקהיד מרטין ובואינג – נדרשו לבחון את דרגת הסתמכותן על אנתרופיק, ממשלת ארצות-הברית מתכוונת להתנתק לגמרי מאנתרופיק ותחייב את כל החברות שעובדות עם הממשל להתנתק מאנתרופיק.
אנתרופיק מנסה להתמודד עם ממשלת ארצות-הברית הכל-יכולה. ובתקופה מתוחה זו, כשהעולם במלחמה או נערך למלחמה, וטראמפ מקבל יותר-ויותר כוח בארצות-הברית, לא ברור אם יחליק על העלבון.

אם חברות הבינה המלאכותית יצטרפו לאנתרופיק בהדגשת ערכי הדמוקרטיה והזהירות-המונעת ויסרבו לתת לממשלות כוח גדול מדי.
מאות עובדים בגוגל וב- OpenAI שחררו מכתב שקורא לחברות שלהם להיצמד לקו דומה.
אולי יצטרפו עוד חברות בינה מלאכותית שיסרבו לעזור לממשלה דמוקרטית לעקוב אחר אזרחיה באופן נרחב, או לשחרר רובוטים אוטונומיים לשדה הקרב לפני שנבחנו היטב. א
למרבה הצער, זה לא יקרה.
סביר להניח שאנתרופיק תספוג מכה קשה על עקרונותיה – בשווי 200 מיליון דולרים.
הבעיה תגיע כשהחברות שעובדות עבור משרדי הממשלה, יפסיקו לרכוש שירותים מאנתרופיק. נזק שיכול להגיע למיליארדי דולרים.

חברות בינה מלאכותית אחרות ישתפו פעולה עם הממשל.
אילון מאסק, בעלי xAI וגרוק אמר על אנתרפיק שהיא "שונאת את הציביליזציה המערבית" ויעשה מה שמשרד המלחמה האמריקני ירצה.
כאמור, סם אלטמן הביע תמיכה באנתרופיק אבל חתם הסכמים עם הממשל.

העתיד מאתגר לדמוקרטיות ליברליות. זה מפחיד.
ממשלות דמוקרטיות לא אמורות לקבל כוח כה גדול על אזרחיהן ונדרש ריסון.

עדכון – קראתי בגיקטיים ש ..
הפנטגון השתמש ב-Claude לצורך התקיפה באיראן. דיווח של WSJ חשף שצבא ארה"ב משתמש ב-Claude לניהול המבצע באיראן. וכאמור הממשל הכריז על אנת'רופיק כסיכון ביטחוני
.

אז ה-AI ה"Woke" מנהל את שדה הקרב? מסתבר שכן.
נזכיר שטראמפ הורה לכל הסוכנויות הפדרליות להפסיק להשתמש במוצרי אנת'רופיק, שכינה "Woke" וטוען שהגישה שלה מסכנת חיילים אמריקאים. שר ההגנה הגדיר את החברה כ"סיכון לשרשרת האספקה"
אבל .. מודל קלוד בכיסא הטייס של "Epic Fury"(השם האמריקאי למבצע "שאגת הארי")

דיווח-Wall Street Journal, טוען שלמרות "חרם" זה – Centcom, פיקוד המרכז האמריקאי השתמש ב-Claude להערכות מודיעיניות, זיהוי מטרות איראניות בזמן אמת וסימולציה של תרחישי לחימה במהלך התקיפות.
כאמר הספקת שימוש בקלוד ומעבר למתחרים אינו פשוט כי המודל מוטמע עמוק בסטאק הטכנולוגי של הממשל, כולל מערכות דאטה של Palantir וסביבות ענן של AWS. הוצאה הדרגתית משימוש של קלוד יקח חודשים רבים של עבודה במה שמזכיר Vendor lock-in של חברות מסחריות.
אנת'רופיק נערכת למאבק משפטי נגד הכללתה ברשימת "הסיכון הביטחוני, בעוד המתחרות OpenAI ו-xAI של אילון מאסק כבר חתמו על הסכמים חדשים לשימוש במודלים שלהן על ידי הפנטגון. זאת, למרות הצהרה של סם אלטמן שהוא מסכים לקווים האדומים.
אבל בינתיים, הצבא האמריקאי משתמש בטכנולוגיה שהגדיר כ"איום" כדי להילחם באיומים


סקיינט ובינה מלאכותית עלולה להשמיד את העולם, כשתהיה לה שליטה מלאה בכלי-נשק מתקדמים, מכלי-טיס ועד טילים בליסטיים, הסיכוי לטעות קטסטרופלית גדל.
(הרהורים על סקיינט בקטע יפה, כולל וידאו – בסוף הפוסט)

יפה שאנתרופיק עומדים על העקרונות שלהם, למרות ניתוק קשרים ואובדן רווחים.
אם היא תראה שזה אפשרי, האם יש סיכוי ששאר העולם ילך אחריה?
הממ .. לצערי, כנראה לא.


לפני כמה חודשים חיפשה OpenAI לאייש תפקיד הגנה מסקיינט – שומר הסף מפני ה-AI, לפני שתעקוף אותנו ותהפוך למוצלחת מדי ואולי גם לקטלנית.
מנכ"ל OpenAI סם אלטמן פרסם בסוף דצמבר פוסט ב-X לגיוס "ראש תחום מוכנות" להובלת מדיניות החברה לקראת היום בו AI תזכה ליכולות חדשות ש"ייצרו סיכונים חדשים שיובילו לנזקים חמורים".

"יש לנו בסיס טוב בזיהוי קצב הגדילה של היכולות (של מודלים), אבל אנחנו נכנסים לעולם שבו נצטרך הבנה יותר עמוקה ומדידה יותר מוצלחת של הניצול לרעה של יכולות כאלו,  ואיך אנחנו יכולים להגביל את החסרונות הללו גם במוצרים שלנו וגם בעולם עצמו, בדרך שתאפשר לכולנו ליהנות מהיתרונות האדירים שמגיעים עם היכולות הללו".
משכורת מוצעת כ-555 אלף דולר או כ-1.8 מיליון ש"ח בשנה ומניות OpenAI שהחברה נותנת לעובדיה מדי פעם להנזיל ובעתיד צפויה להנפיק ( צפויה להיות הנפקה מרשימה ).


על סקיינט כשם קוד להתקדמות המהירה (המבהילה לעתים)

אפשר לומר ש .. סקיינט כבר כאן
החלה 2026 והעולם רץ והרובוטים רצים
צ'אטבוטים שכותבים שירים וקוד זה כבר ברור, מצ'עמם
הענין הוא Physical AI, גוף פיזי –
רובוטים כבר אינם זרועות ענקיות בקווי יצור שמבצעות תנועה רפטטיבית.

רובוטים עם מוח LLM לא רק מבצעים פקודות מקודדות מראש, אלא מנתחים מה רוצים מהם ומנסים לרצות ולמלא בקשות.
הלו Atlas של בוסטון דיינמיקס תסדר את החדר, והוא ישים במרקום ולא יפיל כלום בדרך ואולי יתלונן בבלוג של בוטים.

מודלי VLA (Vision-Language-Action) מאפשרים לרובוטים ללמוד לקשר בין מה שרואים למה ששומעים/קוראים, ואיך לפעול בעולם הפיזי.
מעבד סופר-גאון עם מצלמות, רמקולים, ידיים חזקות נזרק לעולם עם הוראות כלליות.

למשל, Atlas במפעלי יונדאי שקפץ ועשה סלטות בהדגמות. עכשיו הוא עובד במפעל – הרכבה, מניח חלקים כבדים, מנווט בין בני אדם בלי לדרוס אותם.
גם Figure 01, רובוט דמוי אדם לומד משימות פשוטות מצפייה בבני אדם. תראו לו איך מקפלים כביסה, ותחזרו בעוד שעה לכביסה מקופלת. או אולי לשטיפת רצפות. והוא לומד.
אוטומציה בכל מקום.
פחות משימות משעממות ומסוכנות לבני אדם.
רובוטים יעזרו בבית, בבית החולים, בכל מקום ..

כשרובוטים חכמים מספיק כדי להבין הוראות מורכבות, לתכנן פעולות, ולפעול בעולם הפיזי – כמה רחוק זה מ"החלטות עצמאיות"? (שאל מי שהעתקתי ממנו ושכחתי את שמו, רובוט לא ישכח גם)
ומה יקרה כשהם יחליטו שבני האדם מפריעים לתהליך?
סם אלטמן (מנכ״ל OpenAI) ודאריו אמודאי (מנכ״ל Anthropic), שמרוויחים מיליארדים מבינה מלאכותית, הזהירו שללא מגבלות נוקשות ורגולציות על הבינה, עתיד האנושות להיכחד.
הם מזהירים מסכנות AI והם הביאו ו את Claude ו – ChatGPT

סקיינט מ"שליחות קטלנית" היה עם מודעות עצמית והחלטה שהאנושות היא איום. אולי רובוטים יחליטו שמקסום תפוקה דורש ניהול עניינים בעצמם בלי בני אדם לא יעילים עם דרישות נודניקיות בדרך.

והנה מופע רובוטים בריקוד/ אמנויות לחימה – מרשים ומבהיל כאחת

כתיבת תגובה

האימייל לא יוצג באתר. שדות החובה מסומנים *

Scroll to Top