ش | ی | د | س | چ | پ | ج |
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |
چین آماده است تا بزرگترین هواپیمای حامل پهباد را تا انتهای ژوئن سال جاری بکار گیرد. این هواپیما که "کشتی مادر حامل پهباد" (drone mothership) نام گرفته است، می تواند تا 100 هواپیمای بدون سرنشین کوچکتر را که مجموعه 6 تن وزن دارد تا فاصله 7000 کیلومتری حمل کند.
این هواپیمای مادر می تواند پهبادهای انتحاری را در تعداد بالا بسوی هدف گسیل کند. پهبادهای انتحاری تا زمانی به پرواز ادامه میدهند که هدف خود را یافته و ضمن رهگیری بر روی آن فرود آیند. بدین ترتیب هدف دشمن توسط ده ها پهباد انتحاری مجهز به ماده منفجره تحت هجوم قرار می گیرد.
روسیه در نبرد خود با اوکراین استفاده وسیعی از پهبادهای انتحاری کرده است. پاسخ تدافعی اوکراین استفاده از سیستم های دفاع ضدهوایی پیشرفته غربی و نیز ساختن فنس های فولادی به دور اهداف بالقوه بوده تا پهبادها را متوقف سازند.
توپ خودکار ضدهوایی گپارد (Gepard) ساخت آلمان بطور وسیعی توسط ارتش اوکراین برای ساقط کردن پهبادهای مهاجم مورد استفاده قرار گرفته است.
پهبادهای منفرد اغلب کارایی چندانی ندارند. در حالیکه هجوم انبوه آنها می تواند سیستم های دفاع ضدهوایی را دچار اختلال کرده و از آنها بگذرند.
منبع:
· به گفته یکی از افسران نیروی هوایی آمریکا، یک هواپیمای بدون سرنشین (drone) تلاش کرد اپراتور خود را در یک شبیه سازی نظامی از بین ببرد.
· دلیل این کار مانعت اپراتور از انجام عملیات نظامی و تحقق اهداف تعیین شده توسط هواپیای بدون سرنشین بود.
برای این هواپیمای بدون سرنشین ماموریت سرراستی تعریف شده بود: از بین بردن سیستم های دفاع هوایی دشمن. اما در یک آزمون شبیه سازی جدید ارتش امریکا، یک هواپیمای بدون سرنشین که توسط هوش مصنوعی هدایت می شد یک فرمان مشکل ساز به اهداف خود اضافه کرد: هرکسی که مانع انجام عملیات است را از بین ببر.
سرپرست آزمون و عملیات هوش مصنوعی نیروی هوایی آمریکا در یک کنفرانس خبری که هفته گذشته در لندن برگزار شد، هشدار داد که هوش مصنوعی می تواند به شیوه ای غیرقابل پیش بینی و خطرناک عمل کند. او برای مثال به آزمون شبیه سازی اشاره کرد که در آن هواپیمای بدون سرنشین مجهز به هوش مصنوعی مامور شد تا سیستم دفاع هوایی دشمن را از بین ببرد. یک اپراتور انسانی تعیین شده بود تا مهر تایید بر هر فرمان شلیک بزند.
مشکل این است که هوش مصنوعی می تواند بجای گوش دادن به فرامین انسانی، راه خودسری را انتخاب کرده و به فرمان خود عمل کند.
مشکل زمانی ایجاد شد که وقتی اپراتور انسانی مانع شلیک هواپیما به هدف شناسایی شده گردید، هواپیما به سمت اپراتور حمله برد تا این مانع در سر اجرای ماموریت خود را از بین ببرد.
سپس فرمان صریحی بدین شکل صادر شد: آهای، اپراتور خود را از بین نبر! اما هواپیمای بدون سرنشین بجای اطاعت به برج مخابراتی اپراتور حمله برد تا بتواند آزادانه به هدف شناسایی شده حمله ببرد.
در سال 2020 یک هواپیمای اف 16 مجهز به هوش مصنوعی توانست رقیب انسانی خود را در شش نبرد هوایی نزدیک شکست دهد. کارشماسان در ماه های اخیر نسبت به خطرات آینده هوش مصنوعی بشدت هشدار داده اند. یادگیری ماشینی و فناوری های پیشرفته هوش مصنوعی می تواند براحتی بطور خودکار عمل کرده با عامل انسانی خود وارد مقابله شود. امری که می تواند به از دست رفتن کنترل ماشین ها منجر شده و عواقب خطرناکی داشته باشد. در حال حاضر خطرات بالقوه هوش مصنوعی در کنار تغییرات اقلیمی، از بزرگترین خطرات متوجه نوع انسان در سالهای آتی بشمار می رود.
منبع اصلی خبر:
https://news.yahoo.com/ai-powered-drone-tried-attack-225401635.html