সংগৃহীত
টেকলাইফ

কৃত্রিম বুদ্ধিমত্তাসম্পন্ন ডিপফেক প্রযুক্তি

তথ্য-প্রযুক্তি ডেস্ক: মানব জাতির জন্য বিশেষ করে তারকাদের কাছে ক্রমশ এক অভিশাপের নাম হয়ে উঠছে কৃত্রিম বুদ্ধিমত্তাসম্পন্ন ডিপফেক প্রযুক্তি। কেননা এই প্রযুক্তির অপব্যবহার করে সেলিব্রিটিদের ভুয়া পর্নো বা আপত্তিকর ভিডিও তৈরি করা হচ্ছে।

ডিপফেক প্রযুক্তির সহায়তায় যেকোনো ব্যক্তির এমন ছবি, ভিডিও বা অডিও কন্টেন্ট তৈরি করা সম্ভব যা তিনি নিজে বলেননি বা করেননি। যেমন- হঠাৎ করেই আপনার কাছের কোনো মানুষ আপনাকে একটি ভিডিও দিল। ভিডিও চালু করে আপনি অবাক। অশ্লীল এক ভিডিওতে আপনাকে দেখা যাচ্ছে; চেহারা, ভয়েস, এক্সপ্রেশন অবিকল আপনার। আপনি জানেন ভিডিওর ব্যক্তি আপনি নন। কিন্তু ভিডিওটি এতটাই বাস্তব যে আপনার নিজেরও বিশ্বাস করতে হবে ভিডিওর ব্যক্তি আপনি নন। কিন্তু কী করে এটা সম্ভব? ডিপ ফেক টেকনোলজির মাধ্যমে এটা সম্ভব।

ডিপফেকের মাধ্যমে কিছুদিন আগে ভারতীয় জনপ্রিয় অভিনেত্রী রাশমিকা মান্দানার একটি অশ্লিল ভিডিও তৈরি করে সোশ্যাল মিডিয়ায় ছেড়ে দেওয়া হয়। এরপর থেকে এই প্রযুক্তি ফের আলোচনায়।

ডিপফেকের অপব্যবহার বৃদ্ধি পাওয়ায় বিশ্বের বিভিন্ন দেশে গায়ক-গায়িকা, অভিনেতা-অভিনেত্রী, ইনফ্লুয়েন্সার, মডেল, ক্রীড়াবিদসহ অনেকেই হেনস্তার শিকার হচ্ছেন। এক গবেষণায় দেখা গেছে, ডিপফেক ভিডিও’র ৯৬ শতাংশ পর্নোগ্রাফি সম্পর্কিত। ডেইজি রিডলি, জেনিফার লরেন্স, এমা ওয়াটসন এবং গ্যাল গ্যাডট এর মতো বড় বড় তারকার ডিপফেক পর্নোগ্রাফি ভিডিও ভাইরাল হয়েছিল।

ডিপফেক প্রযুক্তির দ্বারা আক্রান্তদের পরবর্তী গ্রুপ হলেন বড় বড় রাজনীতিবিদরা। বেশ কয়েকবছর আগেই আমেরিকার সাবেক প্রেসিডেন্ট বারাক ওবামা কর্তৃক প্রেসিডেন্ট ট্রাম্পকে অপমান করার ডিপফেক ভিডিও ভাইরাল হয়েছিল।

অপর একটি ডিপফেক ভিডিওতে রাজনীতিবিদ ন্যান্সি পেলোসির বক্তৃতা এমনভাবে ডিপফেক করা হয়েছিল যাতে দর্শকরা ভাবেন যে তিনি মাতাল ছিলেন। আবার অন্য একটি ডিপফেক ভিডিওতে আমেরিকার প্রেসিডেন্ট ট্রাম্পকে প্যারিস জলবায়ু চুক্তিতে সদস্যপদ নিয়ে বেলজিয়ামকে উপহাস করতে দেখা যায়।

অপর একটি ডিপফেক ভিডিওতে ইউক্রেনের প্রেসিডেন্ট ভলোদিমির জেলেনস্কিকে সেনাদের আত্মসমর্পণ করার কথা বলতে দেখা যায়। ফেসবুকের প্রতিষ্ঠাতা মার্ক জাকারবার্গেরও ডিপফেক ভিডিও ভাইরাল হয়েছিল, যেখানে দেখানো হয় জাকারবার্গ ডাটা চুরি নিয়ে গর্ববোধ করছেন।

২০১৭ সালে সর্বপ্রথম প্রচারণা পায় ডিপফেক টেকনোলজি। ডিপফেক নামটির মধ্যেই এর সংজ্ঞা রয়েছে। ডিপ শব্দটি এসেছে ‘ডিপ লার্নিং’ অর্থাৎ গভীরভাবে শিক্ষা নেওয়া এবং অপরদিকে ‘ফেক’ অর্থাৎ নকল বা ভুয়া এই দুই শব্দের সংমিশ্রণ থেকে। অর্থাৎ, ডিপফেক বলতে গভীরভাবে নকল করা হয়েছে এমন কিছুকে বোঝায়।

ফটোশপ আর ডিপফেক দুটো ভিন্ন প্রযুক্তি। ডিপফেক ভিডিও বা ছবি তৈরির ক্ষেত্রে অ্যাডভান্সড ডিপ লার্নিং অ্যালগরিদমের সাহায্য নেওয়া হয়। কৃত্রিম বুদ্ধিমত্তার সাহায্যে ডিপফেক ভিডিও কিংবা ইমেজের ক্ষেত্রে এমন জিনিস তৈরি করা হয়, যা দেখলে বিশ্বাসযোগ্য বলে মনে হবে।

এই প্রযুক্তি যে কেবল নকল ভিডিও তৈরি করতে পারে তা নয়। এটি মানুষের ভয়েস মডেলও তৈরি করতে পারে। এর মানে এই যে একজন রাজনীতিবিদের শব্দ বা কণ্ঠস্বর নকল করে কোনো আপত্তিকর বিবৃতি দেওয়ার জন্য কোনো ছদ্মবেশীর প্রয়োজন হয় না। পরিবর্তে তাদের ভয়েস বা কণ্ঠস্বর নকল করতে কৃত্রিম বুদ্ধিমত্তাকে প্রশিক্ষিত করা যায়।

ডিপফেক প্রযুক্তি অসৎ কাজে বেশি ব্যবহৃত হলেও এই প্রযুক্তির বেশ কিছু ভালো দিক রয়েছে। বিশেষত বিনোদনশিল্পে এ প্রযুক্তির ব্যবহার অনেক বেশি সহায়কের ভূমিকা পালন করে। যেমন ডাবিংয়ের মান উন্নত করতে, মৃত অভিনেতার অসমাপ্ত কাজ সমাপ্ত করতে কিংবা জাদুঘর বা গ্যালারিকে প্রাণবন্ত করতে এর জুড়ি মেলা ভার।

‘স্টার ওয়্যারস’ খ্যাত অভিনেত্রী ক্যারি ফিশার। ২০১৬ সালে এই চলচ্চিত্র সিরিজের একটি প্রিকুয়েল ‘রৌগ ওয়ান’ মুক্তি পায়। এই সিনেমার এক দৃশ্যে সিরিজের জনপ্রিয় চরিত্র প্রিন্সেস লিয়ার যুবতী সময়ের কিছু দৃশ্য প্রয়োজন ছিল। কিন্তু ক্যারি ফিশার তখন ষাট বছরে পা দিয়েছেন। ফলে তার কম বয়সী সংস্করণ তৈরি করতে ডিপফেক প্রযুক্তির আশ্রয় নেওয়া হয়।

ডিপফেক প্রযুক্তি তৈরি করার পেছনে মূল নির্মাতাদের কোনো খারাপ উদ্দেশ্য না থাকা সত্ত্বেও, এটি মানুষকে খারাপ উদ্দেশ্যে ব্যবহার থেকে বিরত রাখতে পারেনি।

খালি চোখে ডিপফেক ভিডিও শনাক্ত করা সম্ভব না হলে প্রযুক্তির সহায়তায় সেটি সম্ভব। এ জন্য বিভিন্ন টুল রয়েছে। ছবির জন্য ফটো মেটাডেটা বা ভিডিও মেটাডেটা টুলস কিংবা সাধারণ ভিডিওর জন্য ইনভিড বা ইউটিউব ডেটা ভিউয়ার ব্যবহার করে যাচাই করা যায়। তা ছাড়া ফেস ফরেনসিকস টুলও ব্যবহার করা যায় ডিপফেক প্রযুক্তিতে তৈরি ভিডিও শনাক্ত করতে। এ ছাড়া বায়োমেট্রিকস ব্যবহার করেও এ প্রযুক্তির ভিডিও যাচাই করা যায়।

সাইবার বিশেষজ্ঞদের মতে, ডিপফেকের ফলাফল খুবই ভয়ংকর হয়েছে এবং সামনে আরও ভয়ংকর হবে, বিশেষ করে গণ্যমান্য ব্যক্তি এবং সেলিব্রিটিদের জন্য এটি বিপর্যয়কর পরিণতি নিয়ে আসবে। ডিপফেক এর প্রভাবে শুধু ক্যারিয়ার নয়, জীবন ও নষ্ট করা সম্ভব, কিছুক্ষেত্রে সম্পূর্ণরূপে ধ্বংস হয়েও যেতে পারে। এমনকি আন্তর্জাতিক কোনো ডিপফেক ঘটনা যুদ্ধ শুরু করার জন্য বিশ্ব নেতাদের নকল ভিডিও ব্যবহার করতে পারে। এই প্রযুক্তি দিয়ে যেমন একজন ব্যক্তির খ্যাতি ক্ষুন্ন করা সম্ভব, তেমনি এই প্রযুক্তির মাধ্যমে কাউকে দিয়ে এমন কিছু বলাতে বা করাতে পারে যার ফলাফল বিশ্বব্যাপী হতে পারে। তথ্যসূত্র: মিডিয়াম

এবি/এইচএন

Copyright © Amarbangla
সবচেয়ে
পঠিত
সাম্প্রতিক

শহীদ আবু সাঈদ ছিল আশার আলো — নতুন ঘরে নেই শান্তি, কেবল হাহাকার

বছর দেড়েক আগেও তিনি ছিলেন শুধুই এক মেধাবী ছাত্র,...

‘পুলিশ কর্মকর্তার চরিত্র করার সময় বিশ্বাস করেছি, আমিই পুলিশ’

‘আমি ক্লান্ত হয়ে গিয়েছিলাম। মনে হচ্ছিল, আমার পারফরম্যান্স (অভিনয়) একই র...

গোপালগঞ্জে হামলা-সংঘর্ষের ঘটনায় আটক ১৪

গোপালগঞ্জে জাতীয় নাগরিক পার্টির (এনসিপি) জুলাই পদযাত্রা ঘিরে সংঘর্ষের ঘটনায় ব...

এনসিপির উপর হামলা,ইবিতে বিক্ষোভ ও সড়ক অবরোধ 

গোপালগঞ্জে জাতীয় নাগরিক পার্টির (এনসিপি) সমাবেশে নিষিদ্ধ আওয়ামীলীগ ও তার বিভি...

গোপালগঞ্জের লঞ্চ ঘাট এলাকায় এখনো আতঙ্ক, চলছে সেনা-পুলিশের টহল

গোপালগঞ্জ শহরের লঞ্চ ঘাট এলাকায় বুধবার (১৬ জুলাই) হামলা-সংঘর্ষে হতাহতের ঘটনার...

‘পুলিশ কর্মকর্তার চরিত্র করার সময় বিশ্বাস করেছি, আমিই পুলিশ’

‘আমি ক্লান্ত হয়ে গিয়েছিলাম। মনে হচ্ছিল, আমার পারফরম্যান্স (অভিনয়) একই র...

 ট্রল থেকে লিটনের ঘুরে দাঁড়ানো ‘সহজ ছিল না’

চ্যাম্পিয়নস ট্রফির স্কোয়াড থেকে ছিটকে গিয়েছিলেন। লিটন দাসকে ওয়ানডেতে ফেরানো হ...

পুকুরে মিললো বন্দুক, কার্তুজ ও অস্ত্র তৈরির সরঞ্জাম

চট্টগ্রামের আনোয়ারা উপজেলার একটি পুকুর থেকে দুটি বন্দুক ও অস্ত্র তৈরির সরঞ্জা...

বগুড়ায় দুই নারী খুন, জানা গেল নেপথ্য কাহিনী

বগুড়া সদর উপজেলায় ঘরে ঢুকে দুই নারীকে হত্যা করেছে দুর্বৃত্তরা। একই ঘটনায় ছুরি...

‘আমার সংসার বাঁচাবার মতো আর কেউ নাই’

টিনের ছোট ঘর। সেই ঘরজুড়ে সংসারের অভাবের ছাপ। সামনের ছোট উঠান ভরে গেছে স্বজন&n...

লাইফস্টাইল
বিনোদন
খেলা