هوش مصنوعی وارد انواع صنایع شده و روز به روز نقش پررنگ تری ایفا می کند. با پیشرفت باورنکردنی این فناوری، پتانسیل بهبود چشمگیر بسیاری از جنبه های زندگی را دارد، اما از سوی دیگر نباید خطرات احتمالی آن را نادیده گرفت.
با توجه به اینکه تعداد قابل توجهی از کارشناسان در مورد خطرات احتمالی هوش مصنوعی هشدار می دهند، بهتر است به این هشدارها توجه شود. از سوی دیگر، برخی استدلال میکنند که چنین دیدگاههایی صرفاً برای برانگیختن جنجال مطرح میشوند و هیچ خطر فوری از سوی هوش مصنوعی وجود ندارد.
بنابراین، آیا نگرانی ها در مورد هوش مصنوعی جدی هستند یا باید آنها را نادیده بگیریم؟ در این مقاله به 5 خطر مهم هوش مصنوعی اشاره می کنیم که می تواند در آینده نزدیک مشکلات زیادی را ایجاد کند.
هوش مصنوعی چگونه می تواند خطرناک باشد؟
این فناوری روز به روز پیچیدهتر میشود و این تکامل میتواند منجر به خطرات مختلفی شود، از موارد ساده (وقفه در کار) تا خطرات فاجعهبار. با توجه به اختلاف نظر در این موضوع، دیدگاه مشترک و جامعی در خصوص میزان خطرات آن وجود ندارد. باور عمومی بر این است که هوش مصنوعی از دو جهت می تواند خطرناک باشد:
این فناوری برای انجام کارهای مخرب برنامه ریزی شده است.
این خطرات با پیچیدگی نرم افزار هوش مصنوعی تقویت می شوند. سال ها پیش فیلسوف معروفی به نام نیک بوستروم کتابی منتشر کرد که در آن سناریویی به نام «به حداکثر رساندن گیره کاغذ» را پیشنهاد کرد. او میگوید: فرض کنید هوش مصنوعی برای تولید هرچه بیشتر گیرههای کاغذ ساخته شده است. اگر این هوش مصنوعی به اندازه کافی هوشمند باشد، می تواند تمام دنیا را برای رسیدن به این هدف نابود کند.
اما جدای از این خطرات فاجعه بار که به نظر نمی رسد در آینده نزدیک محقق شوند، می توان به 5 خطر فوری اشاره کرد که می تواند در سال های آینده مشکلات زیادی را ایجاد کند.
1. اتوماسیون کار
اتوماسیون یکی از بزرگترین خطرات هوش مصنوعی برای مشاغل مختلف است. از کارخانهها گرفته تا خودروهای خودران، آغاز اتوماسیون به دههها قبل برمیگردد، اما روز به روز در حال افزایش است.
مشکل این است که برای بسیاری از وظایف مختلف، سیستم های هوش مصنوعی بهتر از انسان ها عمل می کنند. در مجموع، در این موارد، آنها ارزان تر، دقیق تر و کارآمدتر از انسان هستند. به عنوان مثال، هوش مصنوعی در تشخیص آثار هنری تقلبی بهتر از متخصصان انسانی است و اکنون این سیستم ها در تشخیص تومورها از طریق تصاویر اشعه ایکس بهتر شده اند.
از سوی دیگر، زمانی که هوش مصنوعی مشاغل بسیاری را در اختیار می گیرد، بخش بزرگی از کارگرانی که شغل خود را از دست داده اند، به دلیل نداشتن تخصص مورد نیاز یا کمبود اعتبار، نمی توانند شغل جدیدی پیدا کنند. با پیشرفت سیستمهای هوش مصنوعی، مهارتهای آنها در انجام وظایف مختلف بهتر از انسانها میشود و اختلال در کار میتواند منجر به افزایش نابرابری اجتماعی و حتی فاجعه اقتصادی شود.
2. امنیت و حریم خصوصی
مشکل اصلی این است که با افزایش مسائل امنیتی مرتبط با هوش مصنوعی، اقدامات پیشگیرانه با استفاده از هوش مصنوعی نیز افزایش می یابد. این مشکل همچنین این سوال را ایجاد می کند که چگونه سیستم های هوش مصنوعی را ایمن کنیم؟ اگر از الگوریتمهای هوش مصنوعی برای دفاع در برابر مسائل امنیتی استفاده میکنیم، باید مطمئن شویم که خود سیستم هوش مصنوعی نیز امن است.
در حوزه حریم خصوصی، شرکتهای بزرگ در سالهای اخیر تا حد زیادی زیر چاقوی دولتها و رگولاتورها رفتهاند. لازم به ذکر است که روزانه تقریباً 2.5 ترابایت داده توسط کاربران تولید می شود و الگوریتم های پیشرفته می توانند از این داده ها برای ایجاد پروفایل های بسیار دقیق برای نمایش تبلیغات استفاده کنند.
از دیگر نگرانی ها می توان به فناوری های تشخیص چهره اشاره کرد و گزارش ها حاکی از آن است که برخی از نیروهای پلیس در کشورهای مختلف از عینک های هوشمند مجهز به نرم افزار تشخیص چهره برای شناسایی مجرمان تحت تعقیب یا افراد مشکوک استفاده می کنند. این فناوریها میتوانند منجر به گسترش رژیمهای خودکامه شوند یا توسط افراد یا گروههایی با نیت مخرب مورد سوء استفاده قرار گیرند.
3. بدافزار هوش مصنوعی
هوش مصنوعی در هک کردن سیستم های امنیتی و شکستن رمزگذاری های مختلف بهتر و بهتر می شود. این تا حدی به دلیل تکامل الگوریتم های یادگیری ماشین است. این بدان معنی است که بدافزار مبتنی بر هوش مصنوعی با آزمون و خطا بهبود می یابد و خطر آن به مرور زمان افزایش می یابد.
برخی از فناوریهای هوشمند (مانند خودروهای خودران) اهداف ایدهآلی برای این نوع بدافزار هستند و میتوانند برای مثال برای ایجاد تصادفات ترافیکی یا ترافیک استفاده شوند. با افزایش اتکای ما به فناوری های مبتنی بر اینترنت هوشمند، زندگی روزمره ما به طور فزاینده ای تحت تأثیر خطر اختلال قرار می گیرد.
4. سلاح های خودمختار
سلاحهای خودمختار – سلاحهایی که به جای انسان توسط سیستمهای هوش مصنوعی کنترل میشوند – مدتهاست که کار میکنند. در این زمینه، شایان ذکر است که هشدار صدها کارشناس فناوری که از سازمان ملل متحد خواسته اند وسیله ای برای محافظت از بشریت در برابر سلاح های خود مختار ایجاد کند.
نیروهای نظامی کشورهای مختلف در حال حاضر به تسلیحات مبتنی بر هوش مصنوعی یا سلاح هایی که تا حدی مبتنی بر این سیستم ها هستند دسترسی دارند. به عنوان مثال، میتوان به پهپادهای نظامی اشاره کرد که برای مثال میتوانند با استفاده از سیستمهای تشخیص چهره، شخص را با دقت بسیار دقیقی ردیابی کنند.
اما چه اتفاقی میافتد وقتی به الگوریتمهای هوش مصنوعی اجازه میدهیم بدون دخالت انسان تصمیمگیری درباره زندگی یا مرگ بگیرند؟ چنین توانایی هایی می تواند عواقب فاجعه باری داشته باشد.
6. اخبار جعلی و جعلی
فناوری Deepfake روز به روز پیشرفته تر می شود و تشخیص فیلم های جعلی بر اساس آن دشوارتر می شود. اگرچه در حال حاضر از این فناوری عمدتاً برای ساخت فیلم های جعلی از افراد مشهور استفاده می شود، اما در حال حاضر نیز برخی از کلاهبرداران با استفاده از عکس پروفایل افراد عادی در شبکه های اجتماعی اقدام به ساخت فیلم های جعلی از آنها برای دریافت باج می کنند. علاوه بر این باید به استفاده از هوش مصنوعی برای ویرایش تصاویر و شبیه سازی صدا اشاره کرد که می تواند تاثیر زیادی در جامعه داشته باشد.
آخرین کلمه
با پیشرفت در هوش مصنوعی، کاربردهای آن نیز افزایش خواهد یافت. اما متأسفانه، فناوری جدید قدرتمند همیشه در معرض سوء استفاده قرار دارد. این خطرات بر تمام جنبه های زندگی روزمره ما تأثیر می گذارد. از حریم خصوصی و امنیت سیاسی گرفته تا اتوماسیون وظایف. اولین قدم در کاهش خطرات هوش مصنوعی این است که تصمیم بگیرید در چه شرایطی از این فناوری استفاده کنید و در چه شرایطی از استفاده از آن اجتناب کنید.
نظرت راجع به آن چیست؟ آیا هوش مصنوعی واقعاً خطرات جدی دارد یا نباید چنین هشدارهایی را خیلی جدی گرفت؟ نظرات خود را در بخش نظرات با ما و دیگران به اشتراک بگذارید.