ماسک اخیراً نامه ای سرگشاده را به همراه تعدادی از کارشناسان برجسته و سهامداران صنعت امضا کرده است که در آن خواستار توقف موقت توسعه محصولات پیشرفته هوش مصنوعی مانند GPT-4 شده است و به خطرات ملموس و احتمال سوء استفاده آن اشاره می کند. هیچ کمبودی در مورد دومی وجود ندارد، زیرا آزمایشگاههای هوش مصنوعی قبلاً از کار هنرمندان انسانی برای آموزش مدلهای خود بدون پرداخت هزینه به آنها استفاده کردهاند.
برخی از سازمانهای هوش مصنوعی تصمیم گرفتهاند که آنها را وادار کنند قراردادهای بحثبرانگیزی مانند حفظ حقوق «صدای یک صداپیشه» امضا کنند، به طوری که شباهت تولید شده توسط هوش مصنوعی بتواند در ویژگیهای سرگرمی مانند بازیهای ویدیویی استفاده شود. پس از آن مایکروسافت وجود دارد که اخیرا ابزاری به نام Vall-E را شرح داده است که می تواند صدای افراد را تنها با چند ثانیه آموزش صوتی تکرار کند، اما این شرکت متعاقباً انتشار عمومی آن را به دلیل خطرات سوء استفاده متوقف کرد.
پادکست تخیلی روگان با آلتمن تنها نمونه واضح دیگری از پتانسیل محض هوش مصنوعی است که علیرغم رویاهای سازنده عظیمش، به همان اندازه برای بازیگران بد سودآور است. روگان همچنین سال گذشته به صورت تخیلی با استیو جابز، بنیانگذار فقید اپل نشسته بود، که از پادکستی تولید شده توسط هوش مصنوعی نشات می گرفت. یک شرکت اوکراینی به طور مصنوعی صدای جیمز ارل جونز، صدای نمادین دارث ویدر را برای پروژه های آینده حفظ می کند.
البته پادکست روگان خالی از اشکال نبود که گوش تیزبین به راحتی می تواند به بسیاری از آنها اشاره کند. با این حال، هوش مصنوعی بیش از نمایش فناوری الهامبخش، دیستوپی خطرناک مرزی را نشان میدهد که ممکن است با استفاده غیراخلاقی از هوش مصنوعی در پیش باشد.