আরিফ বিন নজরুল
একসময় আমরা চোখে দেখা এবং কানে শোনা তথ্যকেই সত্য বলে মেনে নিতাম। কিন্তু প্রযুক্তির অভাবনীয় অগ্রগতির যুগে দাঁড়িয়ে এখন এই দুই ইন্দ্রিয়কেই প্রশ্নবিদ্ধ হতে হচ্ছে। কারণ যে কণ্ঠে কথা বলছে, তা হয়তো আসল নয়; যে ভিডিওতে মুখ দেখা যাচ্ছে, সেটিও হয়তো কৃত্রিম। এ এক ভয়াবহ সময়, যেখানে প্রযুক্তি মানুষের চেহারা আর কণ্ঠস্বরকে এমন নিখুঁতভাবে নকল করতে পারে, যা সহজেই কাউকে বিভ্রান্ত করতে সক্ষম। এই প্রযুক্তির নাম ডিপফেইক ও ভয়েস ক্লোনিং।
ডিপ লার্নিং অ্যালগরিদমের মাধ্যমে বাস্তব ভিডিও ও অডিওর মতো নকল কনটেন্ট তৈরি করা এখন অনেকটাই সহজলভ্য। ভয়েস ক্লোনিংয়ের জন্য প্রয়োজন মাত্র কয়েক সেকেন্ডের কণ্ঠস্বর রেকর্ডিং। আর ডিপফেইক ভিডিও বানানোর জন্য হাতে থাকা কিছু ছবি বা অল্প কিছু ফুটেজই যথেষ্ট।
এর পরই বানানো হচ্ছে এমন সব ভিডিও, যেখানে কোনো ব্যক্তি না থেকেও তিনি উপস্থিত; হুবহু কথা বলছেন, এমনকি অপরাধমূলক কর্মকাণ্ডে তাকে জড়িত দেখানো হচ্ছে। বিশ্বাস ভাঙার এই নতুন ফাঁদ ব্যবহার করা হচ্ছে রাজনৈতিক চরিত্র হননের জন্য, সামাজিক সম্মান নষ্ট করতে, প্রেম-প্রতারণা বা চাঁদাবাজির মতো অপরাধে, এমনকি রাষ্ট্রীয় বিভ্রান্তি ছড়াতেও। কেউ নিজের ছবি দিয়ে কোনো সামাজিক যোগাযোগমাধ্যমে সক্রিয় থাকলেই এখন তার চেহারা বা কণ্ঠস্বর চুরি হওয়ার আশঙ্কা থেকে যাচ্ছে। আর একবার যদি তা কোনো প্রতারকের হাতে পড়ে, তবে বিপদে পড়া শুধু সময়ের ব্যাপার। বিশ্বব্যাপী এই প্রযুক্তি ঘিরে তীব্র উদ্বেগ তৈরি হয়েছে।
মার্কিন নির্বাচন থেকে শুরু করে ইউরোপের আদালত, ভারতীয় সিনেমা থেকে বাংলাদেশি সামাজিক যোগাযোগমাধ্যম—সবখানেই এর প্রভাব দৃশ্যমান। গ্লোবাল সাইবার নিরাপত্তা বিশেষজ্ঞদের মতে, ২০২৪-২৫ সালের মধ্যে বিশ্বের ৯০ শতাংশ ডিজিটাল কনটেন্ট কোনো না কোনোভাবে এডিটেড বা সিনথেটিক হয়ে উঠবে।
বাংলাদেশেও ইতোমধ্যে কিছু বাস্তব উদাহরণ পাওয়া গেছে। সামাজিক যোগাযোগমাধ্যমে নকল ভিডিও ছড়িয়ে কাউকে ব্ল্যাকমেইল করা, মিথ্যা কণ্ঠে ফোন করে অর্থ আদায়, এমনকি পরিচিতদের মুখ বসিয়ে অশ্লীল ভিডিও বানিয়ে অপপ্রচার—এসবই ঘটছে নীরবে। অনেকেই লজ্জা বা ভয়ে এসব ঘটনা প্রকাশ করেন না। আবার অনেকে জানেনই না যে, তারা আসলে প্রযুক্তির শিকার।
এই পরিস্থিতিতে করণীয় কী? প্রযুক্তি যেমন বিপদ ডেকে আনতে পারে, তেমনই সচেতনতা, বুঝে-শুনে ব্যবহার এবং প্রতিরোধও প্রযুক্তির মাধ্যমেই সম্ভব। বড় প্রযুক্তি প্রতিষ্ঠানগুলো যেমন মেটা, গুগল বা মাইক্রোসফট ডিপফেইক শনাক্ত করতে কৃত্রিম বুদ্ধিমত্তাভিত্তিক সফটওয়্যার তৈরিতে কাজ করছে। তবে সেসব প্রযুক্তি এখনো সাধারণ মানুষের নাগালে আসেনি। বাংলাদেশে এখন সময় এসেছে সচেতনতা বৃদ্ধির, মিডিয়া লিটারেসি বাড়ানোর এবং শিক্ষার্থীদের এসব প্রযুক্তি সম্পর্কে ধারণা দেওয়ার।
সংবাদমাধ্যম ও সোশ্যাল মিডিয়াকে দায়িত্বশীল হতে হবে। এসব একান্ত প্রয়োজন। একই সঙ্গে প্রয়োজন নীতিগত পরিবর্তন। ডিজিটাল নিরাপত্তা আইনের আওতায় ডিপফেইক ও ভয়েস ক্লোনিংয়ের মতো প্রযুক্তিগত প্রতারণা যেন স্পষ্টভাবে চিহ্নিত হয়, সেই উদ্যোগ নিতে হবে এখনই।
প্রযুক্তির অগ্রগতি থামানো যাবে না, তবে এর মানবিক ব্যবহারের নিশ্চয়তা দিতে পারলে, আমরা এই ভয়াল ছায়াকে অতিক্রম করতে পারব। সত্য ও মিথ্যার ব্যবধান যতই ঘোলাটে হোক, বিশ্বাস ফিরিয়ে আনার পথ খোলা থাকুক সচেতনতার আলোয়।
একসময় আমরা চোখে দেখা এবং কানে শোনা তথ্যকেই সত্য বলে মেনে নিতাম। কিন্তু প্রযুক্তির অভাবনীয় অগ্রগতির যুগে দাঁড়িয়ে এখন এই দুই ইন্দ্রিয়কেই প্রশ্নবিদ্ধ হতে হচ্ছে। কারণ যে কণ্ঠে কথা বলছে, তা হয়তো আসল নয়; যে ভিডিওতে মুখ দেখা যাচ্ছে, সেটিও হয়তো কৃত্রিম। এ এক ভয়াবহ সময়, যেখানে প্রযুক্তি মানুষের চেহারা আর কণ্ঠস্বরকে এমন নিখুঁতভাবে নকল করতে পারে, যা সহজেই কাউকে বিভ্রান্ত করতে সক্ষম। এই প্রযুক্তির নাম ডিপফেইক ও ভয়েস ক্লোনিং।
ডিপ লার্নিং অ্যালগরিদমের মাধ্যমে বাস্তব ভিডিও ও অডিওর মতো নকল কনটেন্ট তৈরি করা এখন অনেকটাই সহজলভ্য। ভয়েস ক্লোনিংয়ের জন্য প্রয়োজন মাত্র কয়েক সেকেন্ডের কণ্ঠস্বর রেকর্ডিং। আর ডিপফেইক ভিডিও বানানোর জন্য হাতে থাকা কিছু ছবি বা অল্প কিছু ফুটেজই যথেষ্ট।
এর পরই বানানো হচ্ছে এমন সব ভিডিও, যেখানে কোনো ব্যক্তি না থেকেও তিনি উপস্থিত; হুবহু কথা বলছেন, এমনকি অপরাধমূলক কর্মকাণ্ডে তাকে জড়িত দেখানো হচ্ছে। বিশ্বাস ভাঙার এই নতুন ফাঁদ ব্যবহার করা হচ্ছে রাজনৈতিক চরিত্র হননের জন্য, সামাজিক সম্মান নষ্ট করতে, প্রেম-প্রতারণা বা চাঁদাবাজির মতো অপরাধে, এমনকি রাষ্ট্রীয় বিভ্রান্তি ছড়াতেও। কেউ নিজের ছবি দিয়ে কোনো সামাজিক যোগাযোগমাধ্যমে সক্রিয় থাকলেই এখন তার চেহারা বা কণ্ঠস্বর চুরি হওয়ার আশঙ্কা থেকে যাচ্ছে। আর একবার যদি তা কোনো প্রতারকের হাতে পড়ে, তবে বিপদে পড়া শুধু সময়ের ব্যাপার। বিশ্বব্যাপী এই প্রযুক্তি ঘিরে তীব্র উদ্বেগ তৈরি হয়েছে।
মার্কিন নির্বাচন থেকে শুরু করে ইউরোপের আদালত, ভারতীয় সিনেমা থেকে বাংলাদেশি সামাজিক যোগাযোগমাধ্যম—সবখানেই এর প্রভাব দৃশ্যমান। গ্লোবাল সাইবার নিরাপত্তা বিশেষজ্ঞদের মতে, ২০২৪-২৫ সালের মধ্যে বিশ্বের ৯০ শতাংশ ডিজিটাল কনটেন্ট কোনো না কোনোভাবে এডিটেড বা সিনথেটিক হয়ে উঠবে।
বাংলাদেশেও ইতোমধ্যে কিছু বাস্তব উদাহরণ পাওয়া গেছে। সামাজিক যোগাযোগমাধ্যমে নকল ভিডিও ছড়িয়ে কাউকে ব্ল্যাকমেইল করা, মিথ্যা কণ্ঠে ফোন করে অর্থ আদায়, এমনকি পরিচিতদের মুখ বসিয়ে অশ্লীল ভিডিও বানিয়ে অপপ্রচার—এসবই ঘটছে নীরবে। অনেকেই লজ্জা বা ভয়ে এসব ঘটনা প্রকাশ করেন না। আবার অনেকে জানেনই না যে, তারা আসলে প্রযুক্তির শিকার।
এই পরিস্থিতিতে করণীয় কী? প্রযুক্তি যেমন বিপদ ডেকে আনতে পারে, তেমনই সচেতনতা, বুঝে-শুনে ব্যবহার এবং প্রতিরোধও প্রযুক্তির মাধ্যমেই সম্ভব। বড় প্রযুক্তি প্রতিষ্ঠানগুলো যেমন মেটা, গুগল বা মাইক্রোসফট ডিপফেইক শনাক্ত করতে কৃত্রিম বুদ্ধিমত্তাভিত্তিক সফটওয়্যার তৈরিতে কাজ করছে। তবে সেসব প্রযুক্তি এখনো সাধারণ মানুষের নাগালে আসেনি। বাংলাদেশে এখন সময় এসেছে সচেতনতা বৃদ্ধির, মিডিয়া লিটারেসি বাড়ানোর এবং শিক্ষার্থীদের এসব প্রযুক্তি সম্পর্কে ধারণা দেওয়ার।
সংবাদমাধ্যম ও সোশ্যাল মিডিয়াকে দায়িত্বশীল হতে হবে। এসব একান্ত প্রয়োজন। একই সঙ্গে প্রয়োজন নীতিগত পরিবর্তন। ডিজিটাল নিরাপত্তা আইনের আওতায় ডিপফেইক ও ভয়েস ক্লোনিংয়ের মতো প্রযুক্তিগত প্রতারণা যেন স্পষ্টভাবে চিহ্নিত হয়, সেই উদ্যোগ নিতে হবে এখনই।
প্রযুক্তির অগ্রগতি থামানো যাবে না, তবে এর মানবিক ব্যবহারের নিশ্চয়তা দিতে পারলে, আমরা এই ভয়াল ছায়াকে অতিক্রম করতে পারব। সত্য ও মিথ্যার ব্যবধান যতই ঘোলাটে হোক, বিশ্বাস ফিরিয়ে আনার পথ খোলা থাকুক সচেতনতার আলোয়।
সংগঠনের তথ্য, উপহার প্রদান, অনুভূতি বক্স এবং মেহেদি দেওয়ার জন্য উৎসবের ছাউনিতে চারটি আলাদা বুথ। সেখানে ছিল নারী শিক্ষার্থীদের স্বতঃস্ফূর্ত অংশগ্রহণ। আয়োজকরা নতুন সদস্য আহ্বান ও প্রচারপত্র বিলি করেন। ফটকের সামনে একটি ব্যানারে লেখা, ‛প্রিয় ভাইয়েরা, ভেতরে প্রবেশ ও উঁকি মারা থেকে বিরত থাকুন।’
১৬ মিনিট আগেজগন্নাথ বিশ্ববিদ্যালয় শিক্ষক সমিতির সাধারণ সম্পাদক অধ্যাপক ড. রইছ উদ্দীন বলেছেন, ছাত্রদল নেতা ও পরিসংখ্যান বিভাগের শিক্ষার্থী জোবায়েদ হোসাইন হত্যাকাণ্ডে প্রকৃত অপরাধীদের শাস্তি নিশ্চিত করতে হবে—কেউ যেন আইনের ফাঁক দিয়ে কেউ বেরিয়ে না যায়।
১ ঘণ্টা আগেঢাকা বিশ্ববিদ্যালয়ের (ঢাবি) ইতিহাস বিভাগের শিক্ষার্থী রিয়াদ হাসানের সামাজিক যোগাযোগমাধ্যমে বোরকা ও পর্দাশীল নারীদের নিয়ে কুরুচিপূর্ণ মন্তব্য করার অভিযোগ উঠেছে। এই মন্তব্যের নিন্দা জানিয়েছে বাংলাদেশ ইসলামী ছাত্রীসংস্থা।
২ ঘণ্টা আগেসমাবেশে জোবায়েদের সহপাঠী সজল খান বলেন, “পুলিশ এখনো বর্ষার পরিবারের সদস্যদের জিজ্ঞাসাবাদ করেনি। শুধু বর্ষা ও মাহির নয়, এই ঘটনায় বর্ষার পরিবারও জড়িত। গতকাল আদালতে আমাদের সঙ্গে পুলিশের আচরণ ছিল অমানবিক। আমাদের এক বান্ধবী ভিডিও করতে গেলে তার ফোন কেড়ে নেওয়া হয়। আমরা পুলিশের এই আচরণের তীব্র নিন্দা জানাই।”
২ ঘণ্টা আগে