সংগৃহীত
টেকলাইফ

কৃত্রিম বুদ্ধিমত্তাসম্পন্ন ডিপফেক প্রযুক্তি

তথ্য-প্রযুক্তি ডেস্ক: মানব জাতির জন্য বিশেষ করে তারকাদের কাছে ক্রমশ এক অভিশাপের নাম হয়ে উঠছে কৃত্রিম বুদ্ধিমত্তাসম্পন্ন ডিপফেক প্রযুক্তি। কেননা এই প্রযুক্তির অপব্যবহার করে সেলিব্রিটিদের ভুয়া পর্নো বা আপত্তিকর ভিডিও তৈরি করা হচ্ছে।

ডিপফেক প্রযুক্তির সহায়তায় যেকোনো ব্যক্তির এমন ছবি, ভিডিও বা অডিও কন্টেন্ট তৈরি করা সম্ভব যা তিনি নিজে বলেননি বা করেননি। যেমন- হঠাৎ করেই আপনার কাছের কোনো মানুষ আপনাকে একটি ভিডিও দিল। ভিডিও চালু করে আপনি অবাক। অশ্লীল এক ভিডিওতে আপনাকে দেখা যাচ্ছে; চেহারা, ভয়েস, এক্সপ্রেশন অবিকল আপনার। আপনি জানেন ভিডিওর ব্যক্তি আপনি নন। কিন্তু ভিডিওটি এতটাই বাস্তব যে আপনার নিজেরও বিশ্বাস করতে হবে ভিডিওর ব্যক্তি আপনি নন। কিন্তু কী করে এটা সম্ভব? ডিপ ফেক টেকনোলজির মাধ্যমে এটা সম্ভব।

ডিপফেকের মাধ্যমে কিছুদিন আগে ভারতীয় জনপ্রিয় অভিনেত্রী রাশমিকা মান্দানার একটি অশ্লিল ভিডিও তৈরি করে সোশ্যাল মিডিয়ায় ছেড়ে দেওয়া হয়। এরপর থেকে এই প্রযুক্তি ফের আলোচনায়।

ডিপফেকের অপব্যবহার বৃদ্ধি পাওয়ায় বিশ্বের বিভিন্ন দেশে গায়ক-গায়িকা, অভিনেতা-অভিনেত্রী, ইনফ্লুয়েন্সার, মডেল, ক্রীড়াবিদসহ অনেকেই হেনস্তার শিকার হচ্ছেন। এক গবেষণায় দেখা গেছে, ডিপফেক ভিডিও’র ৯৬ শতাংশ পর্নোগ্রাফি সম্পর্কিত। ডেইজি রিডলি, জেনিফার লরেন্স, এমা ওয়াটসন এবং গ্যাল গ্যাডট এর মতো বড় বড় তারকার ডিপফেক পর্নোগ্রাফি ভিডিও ভাইরাল হয়েছিল।

ডিপফেক প্রযুক্তির দ্বারা আক্রান্তদের পরবর্তী গ্রুপ হলেন বড় বড় রাজনীতিবিদরা। বেশ কয়েকবছর আগেই আমেরিকার সাবেক প্রেসিডেন্ট বারাক ওবামা কর্তৃক প্রেসিডেন্ট ট্রাম্পকে অপমান করার ডিপফেক ভিডিও ভাইরাল হয়েছিল।

অপর একটি ডিপফেক ভিডিওতে রাজনীতিবিদ ন্যান্সি পেলোসির বক্তৃতা এমনভাবে ডিপফেক করা হয়েছিল যাতে দর্শকরা ভাবেন যে তিনি মাতাল ছিলেন। আবার অন্য একটি ডিপফেক ভিডিওতে আমেরিকার প্রেসিডেন্ট ট্রাম্পকে প্যারিস জলবায়ু চুক্তিতে সদস্যপদ নিয়ে বেলজিয়ামকে উপহাস করতে দেখা যায়।

অপর একটি ডিপফেক ভিডিওতে ইউক্রেনের প্রেসিডেন্ট ভলোদিমির জেলেনস্কিকে সেনাদের আত্মসমর্পণ করার কথা বলতে দেখা যায়। ফেসবুকের প্রতিষ্ঠাতা মার্ক জাকারবার্গেরও ডিপফেক ভিডিও ভাইরাল হয়েছিল, যেখানে দেখানো হয় জাকারবার্গ ডাটা চুরি নিয়ে গর্ববোধ করছেন।

২০১৭ সালে সর্বপ্রথম প্রচারণা পায় ডিপফেক টেকনোলজি। ডিপফেক নামটির মধ্যেই এর সংজ্ঞা রয়েছে। ডিপ শব্দটি এসেছে ‘ডিপ লার্নিং’ অর্থাৎ গভীরভাবে শিক্ষা নেওয়া এবং অপরদিকে ‘ফেক’ অর্থাৎ নকল বা ভুয়া এই দুই শব্দের সংমিশ্রণ থেকে। অর্থাৎ, ডিপফেক বলতে গভীরভাবে নকল করা হয়েছে এমন কিছুকে বোঝায়।

ফটোশপ আর ডিপফেক দুটো ভিন্ন প্রযুক্তি। ডিপফেক ভিডিও বা ছবি তৈরির ক্ষেত্রে অ্যাডভান্সড ডিপ লার্নিং অ্যালগরিদমের সাহায্য নেওয়া হয়। কৃত্রিম বুদ্ধিমত্তার সাহায্যে ডিপফেক ভিডিও কিংবা ইমেজের ক্ষেত্রে এমন জিনিস তৈরি করা হয়, যা দেখলে বিশ্বাসযোগ্য বলে মনে হবে।

এই প্রযুক্তি যে কেবল নকল ভিডিও তৈরি করতে পারে তা নয়। এটি মানুষের ভয়েস মডেলও তৈরি করতে পারে। এর মানে এই যে একজন রাজনীতিবিদের শব্দ বা কণ্ঠস্বর নকল করে কোনো আপত্তিকর বিবৃতি দেওয়ার জন্য কোনো ছদ্মবেশীর প্রয়োজন হয় না। পরিবর্তে তাদের ভয়েস বা কণ্ঠস্বর নকল করতে কৃত্রিম বুদ্ধিমত্তাকে প্রশিক্ষিত করা যায়।

ডিপফেক প্রযুক্তি অসৎ কাজে বেশি ব্যবহৃত হলেও এই প্রযুক্তির বেশ কিছু ভালো দিক রয়েছে। বিশেষত বিনোদনশিল্পে এ প্রযুক্তির ব্যবহার অনেক বেশি সহায়কের ভূমিকা পালন করে। যেমন ডাবিংয়ের মান উন্নত করতে, মৃত অভিনেতার অসমাপ্ত কাজ সমাপ্ত করতে কিংবা জাদুঘর বা গ্যালারিকে প্রাণবন্ত করতে এর জুড়ি মেলা ভার।

‘স্টার ওয়্যারস’ খ্যাত অভিনেত্রী ক্যারি ফিশার। ২০১৬ সালে এই চলচ্চিত্র সিরিজের একটি প্রিকুয়েল ‘রৌগ ওয়ান’ মুক্তি পায়। এই সিনেমার এক দৃশ্যে সিরিজের জনপ্রিয় চরিত্র প্রিন্সেস লিয়ার যুবতী সময়ের কিছু দৃশ্য প্রয়োজন ছিল। কিন্তু ক্যারি ফিশার তখন ষাট বছরে পা দিয়েছেন। ফলে তার কম বয়সী সংস্করণ তৈরি করতে ডিপফেক প্রযুক্তির আশ্রয় নেওয়া হয়।

ডিপফেক প্রযুক্তি তৈরি করার পেছনে মূল নির্মাতাদের কোনো খারাপ উদ্দেশ্য না থাকা সত্ত্বেও, এটি মানুষকে খারাপ উদ্দেশ্যে ব্যবহার থেকে বিরত রাখতে পারেনি।

খালি চোখে ডিপফেক ভিডিও শনাক্ত করা সম্ভব না হলে প্রযুক্তির সহায়তায় সেটি সম্ভব। এ জন্য বিভিন্ন টুল রয়েছে। ছবির জন্য ফটো মেটাডেটা বা ভিডিও মেটাডেটা টুলস কিংবা সাধারণ ভিডিওর জন্য ইনভিড বা ইউটিউব ডেটা ভিউয়ার ব্যবহার করে যাচাই করা যায়। তা ছাড়া ফেস ফরেনসিকস টুলও ব্যবহার করা যায় ডিপফেক প্রযুক্তিতে তৈরি ভিডিও শনাক্ত করতে। এ ছাড়া বায়োমেট্রিকস ব্যবহার করেও এ প্রযুক্তির ভিডিও যাচাই করা যায়।

সাইবার বিশেষজ্ঞদের মতে, ডিপফেকের ফলাফল খুবই ভয়ংকর হয়েছে এবং সামনে আরও ভয়ংকর হবে, বিশেষ করে গণ্যমান্য ব্যক্তি এবং সেলিব্রিটিদের জন্য এটি বিপর্যয়কর পরিণতি নিয়ে আসবে। ডিপফেক এর প্রভাবে শুধু ক্যারিয়ার নয়, জীবন ও নষ্ট করা সম্ভব, কিছুক্ষেত্রে সম্পূর্ণরূপে ধ্বংস হয়েও যেতে পারে। এমনকি আন্তর্জাতিক কোনো ডিপফেক ঘটনা যুদ্ধ শুরু করার জন্য বিশ্ব নেতাদের নকল ভিডিও ব্যবহার করতে পারে। এই প্রযুক্তি দিয়ে যেমন একজন ব্যক্তির খ্যাতি ক্ষুন্ন করা সম্ভব, তেমনি এই প্রযুক্তির মাধ্যমে কাউকে দিয়ে এমন কিছু বলাতে বা করাতে পারে যার ফলাফল বিশ্বব্যাপী হতে পারে। তথ্যসূত্র: মিডিয়াম

এবি/এইচএন

Copyright © Amarbangla
সবচেয়ে
পঠিত
সাম্প্রতিক

এমিতে ‘অ্যাডোলেন্স’-এর জয়জয়াকার

বাংলাদেশ সময় সোমবার (১৫ সেপ্টেম্বর) সকালে ঘোষণা করা হলো ৭৭তম এমি অ্যাওয়ার্ডস।...

লন্ডনে বাংলাদেশি মাকে ‘বর্ণবাদী’ মন্তব্য, ছেলের ওপর হামলা

লন্ডনে হামলার শিকার হয়েছেন এক বাংলাদেশি তরুণ। তরুণের ভাষ্য, তাঁর হিজাব পরা মা...

রাকসু নির্বাচনে কার কী প্যানেল

রাজশাহী বিশ্ববিদ্যালয় কেন্দ্রীয় ছাত্র সংসদ-রাকসু নির্বাচনের এ পর্যন্ত নয়টি প্...

হাত না মেলানো : ভারতের ব্যাখ্যা, পাকিস্তানের প্রতিবাদ

আগা সালমান-শাহিন আফ্রিদিরা হয়তো সেটা ভেবেই মাঠে দাঁড়িয়ে ছিলেন। অপেক্ষায় ছিলেন...

বিপৎসীমা ছাড়িয়ে গেছে তিস্তার পানি

টানা কয়েক দিনের ভারী বৃষ্টি এবং উজান থেকে নেমে আসা পাহাড়ি ঢলে তিস্তার পানি আব...

গাজায় গণহত্যা চালিয়েছে ইসরায়েল: জাতিসংঘের তদন্ত কমিশন

গাজার ফিলিস্তিনিদের বিরুদ্ধে জাতিগত নিধন চালাচ্ছে ইসরায়েল। জাতিসংঘের একটি স্...

ডেঙ্গু রোগীদের চিকিৎসায় স্বাস্থ্য অধিদপ্তরের নতুন নির্দেশনা

ডেঙ্গু রোগীদের চিকিৎসা আরও সুশৃঙ্খল করতে সরকারি হাসপাতালগুলোকে নতুন নির্দেশনা...

ক্রীড়া পরিদপ্তরে দুদকের অভিযান

যুব ও ক্রীড়া মন্ত্রণালয়ের আওতাধীন ক্রীড়া পরিদপ্তরের বার্ষিক ক্রীড়া কর্মসূচি প...

এক লাফে ট্যারিফ বাড়ল গড়ে ৪০ শতাংশ

বন্দর ব্যবহারকারীদের আপত্তি উপেক্ষা করেই নতুন ট্যারিফের প্রজ্ঞাপন জারি করা হয়...

বগুড়ায় মা ও ছেলেকে কুপিয়ে হত্যা

বগুড়ার শিবগঞ্জে এক নারী ও তার কলেজপড়ুয়া ছেলেকে কুপিয়ে হত্যা করেছে দুর্বৃত্তরা...

লাইফস্টাইল
বিনোদন
খেলা