قال وزير الدفاع الوطني بيل بلير إنّ كندا تعمل على دمج الذكاء الاصطناعي في قواتها المسلحة، لكنه أكّد على أنّ التكنولوجيا لنّ تحلّ مكان البشر.
وأدلى بلير بهذا التصريح في ’’قمّة الذكاء الاصطناعي المسؤول في المجال العسكري‘‘ التي عُقدت يوميْ الإثنين والثلاثاء في العاصمة الكورية الجنوبية، سيول، حيث كانت كندا من ضمن 61 دولة أقرّت أمس وثيقة جديدة حول الاستخدام العسكري المسؤول للذكاء الاصطناعي.
وقال بلير إنّ كندا تعمل على جعل القوات المسلحة الكندية منظمةً ’’مدعومة بالذكاء الاصطناعي‘‘ بحلول عام 2030 وبموجب استراتيجية تمّ إطلاقها في وقت سابق من العام الحالي.
ورأى بلير أنّ استخدام الذكاء الاصطناعي ’’بشكل فعّال وأخلاقي على حدّ سواء‘‘ هو أمر في غاية الأهمية.
ويشمل ذلك استخدام الذكاء الاصطناعي ’’لتحسين عمل أفرادنا العسكريين ولكن ليس لاستبدالهم‘‘، قال بلير.
”لهذا السبب التزمنا بضمان أن يظلّ البشر دائماً في طليعة القرارات المهمة، مع بقاء آليات المساءلة المناسبة في مكانها الصحيح‘‘، أضاف بلير.
طائرة مقاتلة من طراز ’’سي إف - 18‘‘ تابعة لسلاح الجو الكندي على مدرج قاعدة ترينتون في أونتاريو (أرشيف).
الصورة: La Presse canadienne / Lars Hagberg
وأشار بلير إلى أنّ الاستراتيجية تركّز أيضاً على العمل مع الحلفاء ’’للتأكد من أنّ تكنولوجيا الذكاء الاصطناعي لا يتمّ تطويرها بكفاءة فحسب، بل أيضاً إدماجها وإدارتها بفعالية‘‘.
وتقول وثيقة الإستراتيجية إنّ حلفاء كندا يتحركون بسرعة لاعتماد الذكاء الاصطناعي، وتنبّه إلى أنّ كندا يجب أن تتحرك لمواكبة ذلك، مشيرةً إلى أنّ التكنولوجيا أصبحت أيضاً بشكل متزايد في متناول الخصوم المحتملين.
وتشمل الدول الداعمة لـ’’خطة العمل‘‘ في سيول حلفاء لكندا مثل الولايات المتحدة والمملكة المتحدة وألمانيا وفرنسا، وفقاً لقائمة نُشرت على الموقع الإلكتروني للقمة.
أمّا الصين وروسيا فليستا على قائمة الدول المؤيدة للوثيقة، كما أنّ إسرائيل غائبة عنها أيضاً.
وجاء انعقاد هذه القمّة في كوريا الجنوبية في أعقاب قمة افتتاحية في هولندا العام الماضي أيّدت خلالها دولٌ، من بينها كندا، وثيقة سابقة.
مركز بيانات يضمّ أجهزة كمبيوتر تستخدم الذكاء الاصطناعي (أرشيف).
الصورة: Shutterstock / Oleksiy Mark
وجاء في ’’خطة العمل‘‘ لقمّة هذا الأسبوع أنّ الذكاء الاصطناعي ’’يمتلك إمكانات استثنائية لتحويل كلّ واحد من جوانب الشؤون العسكرية‘‘. لكنّ الوثيقة تحذّر من أنّ الاستخدام العسكري للذكاء الاصطناعي يمكن أن يشكّل مخاطر إنسانية ومجتمعية وأخلاقية.
وتضيف الوثيقة أنه يجب استخدام تكنولوجيات الذكاء الاصطناعي وفقاً للقوانين الوطنية والدولية المعمول بها، وأنّ ’’المسؤولية والمحاسبة لا يمكن أبداً نقلهما إلى الآلات‘‘.
كما تدعو إلى ’’ضمانات للحدّ من مخاطر الأعطال أو العواقب غير المقصودة‘‘، بما في ذلك التحيّز في البيانات أو الخوارزميات.
وتدعو الوثيقة أيضاً إلى فهم مشترك ومناقشة مفتوحة حول تطبيق الذكاء الاصطناعي في المجال العسكري، لافتةً إلى أنه ’’يجب تطوير تطبيقات الذكاء الاصطناعي في المجال العسكري ونشرها واستخدامها بطريقة تحافظ على السلام والأمن والاستقرار حول العالم ولا تقوّضها‘‘.
المصدر: "راديو كندا"