هوش مصنوعی این روزها به موضوع داغ دنیای فناوری تبدیل شده است و این پتانسیل را دارد که با ایجاد تغییر و تحول تقریباً در هر صنعتی، بسیاری از جنبه های زندگی بشر را به میزان قابل توجهی بهبود بخشد. اما مانند هر فناوری دیگری، هوش مصنوعی کاملاً بدون خطر نیست. در حال حاضر دو رویکرد متفاوت برای هوش مصنوعی و خطرات آن وجود دارد. از یک سو بسیاری از کارشناسان درباره خطر احتمالی هوش مصنوعی هشدار می دهند و از سوی دیگر بسیاری ادعا می کنند که این هشدارها غیرضروری بوده و خطری از سوی هوش مصنوعی حداقل در آینده نزدیک وجود ندارد.
بنابراین ممکن است برای بسیاری این سوال و ابهام ایجاد شود که آیا نگرانی در مورد هوش مصنوعی جدی است یا خیر؟ برای روشن شدن موضوع، در این مقاله قصد داریم پنج خطر اصلی هوش مصنوعی را برجسته کرده و وضعیت فعلی فناوری در هر حوزه را شرح دهیم. پس با ما همراه باشید
هوش مصنوعی چگونه می تواند خطرناک باشد؟
هوش مصنوعی پیچیدهتر و پیچیدهتر میشود و میتواند شامل ریسکهایی از خفیف (به عنوان مثال، از دست دادن شغل یا تغییر شخصیت برخی افراد) تا خطرات فاجعهبار باشد. سطح خطری که هوش مصنوعی برای ما انسان ها ایجاد می کند قابل بحث است، زیرا در حال حاضر هیچ درک کلی (و اجماع) واحدی در مورد این فناوری وجود ندارد.
عموماً اعتقاد بر این است که هوش مصنوعی از دو جهت می تواند خطرناک باشد:
- از هوش مصنوعی برای انجام کارهای مخرب استفاده شود.
- با وجود اینکه هوش مصنوعی به گونهای برنامهریزی شده که مفید باشد، اما ممکن است در این بین به صورت ناخواسته کاری مخرب را نیز انجام دهد.
این خطرات با پیچیده تر شدن نرم افزار هوش مصنوعی افزایش می یابد. جالب است بدانید که یک استدلال فرضی کلاسیک به نام «بیشینه سازی گیره کاغذ» نیز در این مورد مطرح شده است. این آزمایش فکری فرض می کند که یک هوش مصنوعی فوق هوشمند برای به حداکثر رساندن تعداد گیره های کاغذ در جهان برنامه ریزی شده است. اگر این هوش مصنوعی به اندازه کافی هوشمند باشد، می تواند تمام دنیا را برای رسیدن به این هدف نابود کند!
اما در این مرحله، مقایسه هوش مصنوعی فعلی با چنین فناوری فوق هوشمندی درست به نظر نمی رسد و خطرات فرضی را نمی توان به هوش مصنوعی فعلی مرتبط کرد. بنابراین بهتر است بیشتر واقع بین باشیم و با خطراتی که ممکن است اکنون ما را تهدید کند مقابله کنیم.
1. اتوماسیون و از دست دادن شغل
اتوماسیون یکی از خطرات هوش مصنوعی است که بشریت را تحت تاثیر قرار داده است. از کارخانههای بزرگ گرفته تا خودروهای خودران، فرآیند اتوماسیون دهها سال است که وجود داشته و هر روز در حال افزایش است. بر اساس مطالعه 2019 موسسه بروکینگز، 36 میلیون شغل ممکن است در سال های آینده به دلیل پیشرفت در اتوماسیون در معرض خطر قرار گیرند.
مشکل اصلی این است که در بسیاری از وظایف سیستم های هوش مصنوعی بهتر از انسان ها عمل می کنند. آنها ارزان تر، کارآمدتر و دقیق تر از نیروی کار انسانی هستند. به عنوان مثال، هوش مصنوعی مدتهاست که برای کشف جعلیات در آثار هنری استفاده میشود و از متخصصان انسانی پیشی میگیرد. در آخرین مورد از این تکنیک برای تشخیص تومورها بر اساس تصاویر رادیوگرافی استفاده می شود که نتایج بسیار دقیق تری دارد.
اگرچه برخی از مشاغل انسانی با توسعه هوش مصنوعی از بین خواهند رفت، اما زمینه های شغلی جدیدی ایجاد خواهد شد. اما مشکل بعدی این است که با جابجایی شغل به دلیل اتوماسیون، بسیاری از کارگرانی که شغل خود را از دست داده اند، واجد شرایط مشاغل جدید ایجاد شده توسط هوش مصنوعی نخواهند بود زیرا دانش و تخصص لازم را ندارند.
با ادامه توسعه سیستم های هوش مصنوعی، آنها در انجام وظایف بسیار ماهرتر از انسان ها می شوند. این فناوری می تواند در شناسایی الگوها یا پیش بینی ها بسیار دقیق باشد و در نتیجه تغییراتی در محل کار ایجاد کند که می تواند نابرابری اجتماعی را افزایش دهد و حتی منجر به فاجعه اقتصادی شود.
2. امنیت و حریم خصوصی
در سال 2020، دولت بریتانیا گزارشی در مورد هوش مصنوعی و تأثیر آن بر امنیت ملی بریتانیا منتشر کرد که بر لزوم استفاده از هوش مصنوعی در امنیت سایبری بریتانیا برای شناسایی و کاهش تهدیدهایی که نیاز به واکنش سریعتری نسبت به تصمیمگیری انسانی دارند، تاکید کرد. ، برجسته شد.
در واقع، مشکل این است که همراه با افزایش نگرانی های امنیتی مبتنی بر هوش مصنوعی، اقدامات پیشگیرانه مبتنی بر هوش مصنوعی نیز باید افزایش یابد. تا زمانی که نتوانیم اقداماتی را برای محافظت از خود در برابر خطرات هوش مصنوعی ایجاد کنیم، این فناوری بیشتر از اینکه بتوانیم از آن سود ببریم به ما آسیب می رساند.
از سوی دیگر این سوال نیز مطرح می شود که چگونه باید سیستم های هوش مصنوعی را ایمن کنیم؟ اگر از الگوریتم های هوش مصنوعی برای دفاع در برابر تهدیدات امنیتی مختلف استفاده می کنیم، باید اطمینان حاصل کنیم که خود هوش مصنوعی در برابر تهدیدات محافظت می شود. به عبارت دیگر، اگر امنیت خود را به هوش مصنوعی بسپاریم، باید از امنیت خود این فناوری و عدم نفوذ مجرمان به آن اطمینان حاصل کنیم.
فناوری تشخیص چهره نیز در حال حاضر فوق العاده پیچیده است و دوربین ها می توانند افراد را در زمان واقعی بدون وقفه تشخیص دهند. برخی از نیروهای پلیس در سراسر جهان از عینک های هوشمند با نرم افزار تشخیص چهره استفاده می کنند تا به راحتی مجرمان یا مظنونان تحت تعقیب را شناسایی و برچسب گذاری کنند.
اگرچه این کاربردهای هوش مصنوعی در نگاه اول بسیار مفید به نظر می رسند، اما زمانی که تصور کنیم چنین فناوری های فوق هوشمندی در دست افراد و گروه های مخرب است، وضعیت نگران کننده می شود. در کنار اهداف بسیار مفید هوش مصنوعی، مطمئناً امکان سوء استفاده های فراوان برای نقض حریم خصوصی کاربران نیز وجود دارد.
3. بدافزار مبتنی بر هوش مصنوعی
علاوه بر کارکردهای مفید، هوش مصنوعی در شکستن سیستم های امنیت اطلاعات و رمزگذاری رمز عبور نیز بهتر عمل می کند. یکی از راههایی که این اتفاق میافتد، «تکامل» بدافزار با استفاده از الگوریتمهای یادگیری ماشینی است. بدافزار به این ترتیب می تواند با آزمون و خطا یاد بگیرد که کدام روش کار می کند و کدام نه. به این ترتیب، این بدافزارها با گذشت زمان خطرناک تر می شوند.
در همین حال، فناوریهای هوشمند جدیدتر مانند خودروهای خودران، اهداف بالقوه پرخطری برای این نوع حملات در نظر گرفته میشوند. زیرا افراد مخرب می توانند از طریق توسعه بدافزار مبتنی بر هوش مصنوعی باعث تصادف یا موانعی شوند. همانطور که ما به طور فزاینده ای به فناوری های هوشمند متصل به اینترنت وابسته می شویم، چنین اختلالاتی به طور فزاینده ای بر زندگی روزمره ما تأثیر می گذارد.
باز هم، تنها راه حل واقعی برای این تهدید این است که هوش مصنوعی ضد بدافزار کار بهتری برای محافظت از افراد و مشاغل در برابر هوش مصنوعی مورد استفاده در بدافزار انجام دهد.
4. سلاح های مستقل
سلاحهای خودمختار که به جای انسان توسط سیستمهای هوش مصنوعی کنترل میشوند، مدتهاست که کار میکنند و صدها کارشناس فناوری از سازمان ملل متحد خواستهاند تا راهی برای محافظت از بشریت در برابر خطرات ناشی از چنین سلاحهایی ارائه کند.
ارتش های دولتی در سراسر جهان اکنون می توانند از انواع سیستم های تسلیحاتی مبتنی بر هوش مصنوعی یا نیمه هدایت شونده مانند پهپادهای نظامی استفاده کنند. پیشرفت در این زمینه حتی به سطحی رسیده است که نرم افزار تشخیص چهره به پهپادها اجازه می دهد تا یک فرد خاص را ردیابی کنند.
حالا فکر میکنید چه اتفاقی میافتد وقتی به الگوریتمهای هوش مصنوعی اجازه دهیم بدون دخالت انسان درباره مرگ و زندگی تصمیمگیری کنند؟!
هوش مصنوعی همچنین این امکان را فراهم میکند که فناوریهای مصرفکننده (مانند هواپیماهای بدون سرنشین) برای پرواز مستقل و انجام برخی کارها به صورت خودکار انجام شود. اگر این قابلیت ها در دست خرابکاران باشد، می تواند دائماً امنیت مردم جهان را تحت تأثیر قرار دهد.
5. اخبار جعلی، اخبار جعلی و امنیتی سیاسی
نرم افزار بازسازی صورت (که بیشتر به عنوان فناوری دیپ فیک شناخته می شود) روز به روز در حال پیشرفت است و تشخیص آن از چیز واقعی دشوارتر می شود. اگرچه دیپ فیک محدودیت خاصی ندارد، اما در حال حاضر اکثر افراد مشهور و رهبران جهان تحت تاثیر ریسک های آن قرار گرفته اند و به نظر می رسد هنوز زمان زیادی برای مشارکت افراد عادی باقی مانده است. به عنوان مثال، کلاهبرداران اکنون می توانند تنها با استفاده از یک عکس نمایه ساده، ویدیوهای جعلی ایجاد کرده و از آنها برای باج گیری و کلاهبرداری از افراد استفاده کنند.
کاهش خطرات ناشی از هوش مصنوعی
با افزایش پیچیدگی و قابلیت های هوش مصنوعی، تحولات مثبت زیادی در حال رخ دادن است. اما متأسفانه فناوری های در حال توسعه و قدرتمند همیشه مستعد سوء استفاده هستند. این خطرات تقریباً بر هر جنبه ای از زندگی روزمره ما تأثیر می گذارد، از حریم خصوصی گرفته تا امنیت سیاسی و اتوماسیون کاری.
اولین قدم در کاهش خطرات هوش مصنوعی این است که تصمیم بگیریم در کجا می خواهیم از هوش مصنوعی استفاده کنیم و کجا از آن اجتناب کنیم. افزایش تحقیقات و بحث در مورد سیستم های هوش مصنوعی و قوانین در این زمینه اولین گام برای جلوگیری از سوء استفاده های احتمالی است.
شما چی فکر میکنید؟ آیا هوش مصنوعی را یک تهدید بالقوه برای جامعه بشری میدانید یا معتقدید که مزایای آن بیشتر از معایب آن است؟ حتما نظرات خود را از طریق بخش نظرات در انتهای این مقاله با ما و سایر خوانندگان به اشتراک بگذارید.