‘फेसबुक’ या आभासी जगातील सामाजिक संकेतस्थळाने २०१२ मध्ये आपल्या किमान ६८९००३ ग्राहकांशी प्रतारणा करून गुपचूप त्यांच्या भावनांशी खेळ केला, भावनांचा संसर्ग पसरवला; एक प्रकारे त्यांना गिनिपिग बनवले. त्यांनी मानवी भावनांचे संशोधन करण्याचा प्रयत्न केला, तेव्हा कुणालाच विश्वासात घेतले नाही, त्यामुळे खरा विश्वासघात झाला, पण येथे नीतिनियम सोडले व फक्त संशोधन हा निकष मानला तर त्यांनी ही बाब गुप्त ठेवली नसती तर सर्वाचे वर्तन हे ठरवून केलेले राहिले असते. मानसिक संशोधन किंवा भावनांचे संशोधन या अशा वरवरच्या उपायांनी करण्याच्या गोष्टी नसतात. मानसशास्त्रज्ञ सिग्मंड फ्रॉइड एकेका व्यक्तीवर बारा-बारा वर्षे मानसिक संशोधन करीत असे. त्यामुळे ही काही सामाजिक संकेतस्थळावर करायची गोष्टच नाही. या विश्वासघाती कृत्यावर फेसबुकप्रेमींसाठी हे विचारमंथन.. ग्राहक संशोधन ग्राहक संशोधन हा तर या संकेतस्थळांचा एक माहिती गोळा करण्याचा धंदा आहे. तुम्ही काय सर्च करता यावरून तुमची माहिती कंपन्यांना पाठवली जाते. मग या कंपन्यांना संभाव्य ग्राहक कळतात, माहितीचा असा वापर करणे हा माहिती तंत्रज्ञान कायद्यानुसार गुन्हा असला तरी आधुनिक जगाचे ते माहिती संकलनाचे हत्यार आहे; फक्त त्यासाठी संबंधित ग्राहकाची परवानगी विचारण्याच्या भानगडीत कुणी पडत नाही. सामाजिक प्रयोग ज्याला आपण सोशल एक्सपिरिमेंट असे म्हणतो ते, यूटय़ूब व इतर आपली पारंपरिक माध्यमेही कधी कधी करीत असतात. डिसेंबर २०१२ मध्ये जेव्हा दिल्लीत एका मुलीवर सामूहिक बलात्कार झाला व ती नंतर मरणही पावली, त्या वेळी जाणाऱ्या-येणाऱ्या कुणीही त्यांना मदत केली नाही, त्यामुळे लोकांची संवेदनशीलता वाढवण्यासाठी एक-दोन मिनिटांचे चित्रीकरण यूटय़ूबवर दाखवण्यात आले. त्यात एका मोटारीतून किंचाळ्या ऐकू येत होत्या, एक जण बाजूने निघून गेला. एक मात्र खरोखरच थांबला व गाडीच्या काचा खाली करून आत डोकावले तर आत कुणीच नव्हते. त्या किंचाळय़ा, आक्रंदन ध्वनिमुद्रित केलेले होते, अशा प्रयोगांना सामाजिक प्रयोग असे म्हणतात. आपल्याकडेही पंतप्रधान नरेंद्र मोदी यांनी त्यांच्या पक्षातील नेत्यांना जे धडे दिले त्यात सामाजिक संकेतस्थळावर काय येते आहे त्यावरून समाजात काय चालले आहे यावर लक्ष ठेवा किंवा समाजाची नाडी ओळखा, असा मोलाचा संदेश दिला आहे. पण आभासी संकेतस्थळावरची ही नाडीपरीक्षा लोकसभा निवडणुकीत बरोबर ठरली तरी प्रत्येक वेळी बरोबर ठरेल असे नाही. कित्येक वर्षे एकत्र राहिलेल्या पती-पत्नींना एकमेकांच्या आवडीनिवडी विचारल्या तरी सांगता येतातच असे नाही. एकमेकांची सुखदु:खे कळतात असे नाही; तिथे संगणकाची काय कथा. ते तर यंत्र आहे. यंत्रमानवाला भावना प्रदान करण्याचे प्रयत्न चालू आहेत, पण त्यासाठी फार काळ जावा लागेल. एवढेच म्हणता येईल की, अशा प्रयोगातून घरोघरी जाऊन पाहणी करण्याऐवजी शॉर्टकट घेतले जातात, पण प्रत्येक वेळी ते योग्य ठरत नाहीत. माणसाचा मूड माणूसच ओळखेल की यंत्र असा प्रश्न पडल्यावाचून राहत नाही. शब्दकोशातील शब्दांचा पोस्ट बनवण्यासाठी वापरफेसबुकने त्यांचे संदेश तयार करण्यासाठी एक तिसरेच सॉफ्टवेअर वापरले. त्यात ४५०० शब्द होते, त्यात काही सकारात्मक व काही नकारात्मक होते. त्यांनी ते शब्द वापरून ३० लाख पोस्ट तयार केल्या होत्या. यात शब्दांच्या छटा महत्त्वाच्या असतात. त्यामुळे भावनांचे विश्लेषण अचूक असण्याची शक्यता कमी होते. एखाद्याने प्रतिसादासाठी दिलेल्या पोस्टमध्ये कुठले शब्द वापरले आहेत, त्यातील संदर्भ काय आहेत हे माहीत नसताना वापरकर्त्यांच्या भावनाही आम्ही बदलल्या, हा फेसबुकचा दावा फुसका आहे. संशोधनात कोडिंगला महत्त्व असते व ते तयार करणाऱ्यांना ‘कोडर’ म्हणतात. लंडनचे कोडर जॉन्टी व्ॉरिंग यांनी हा मुद्दा जास्त चांगला मांडला आहे. ते म्हणतात, एखाद्या व्यक्तीने डॅम गुड असा शब्द वापरला तर त्याचा अर्थ, काय आपण फार चांगले, असा लावू, पण संगणकाला ते कळत नाही. आता यात सकारात्मक व नकारात्मक अशा दोन शब्दांचे मिश्रण आहे. डॅम हा नकारात्मक शब्द आहे तर गुड हा सकारात्मक शब्द आहे; मग याता याचे वर्गीकरण कुठल्या आधारावर कसे करायचे. त्यामुळे शब्दांच्या खेळात संगणकाची नेहमी दांडी उडते तसे झाले. कुणी डॅम गुड म्हटले तर संगणकाला ‘डॅम’ या शब्दामुळे ती नकारात्मक भावना वाटली असली तर नवल नाही. पावलोव- फेसबुक तुम्हाला रस असलेल्या जाहिराती दाखवते. त्यापेक्षा आम्ही नवीन जाहिराती करून त्या दाखवू, त्यावर तुमचे काय मत होते हे जाणून घेऊ. स्प्लिटव्हिले- कुणी तरी तुम्हाला डिफ्रेण्ड करते, म्हणजे तुमची मैत्री तोडते तेव्हा फेसबुक तुम्हाला ते सांगत नाही, यापुढे आम्ही ते तुम्हाला सांगू. ऑनलाइन नाते का तुटते ते यातून कळेल. त्याचा भावनात्मक परिणामही तपासू, असेही फेसबुकच म्हणणे आहे. स्टॅनफर्डफेसबुक वापरकर्त्यांना कैदी व रक्षक असे विभागले जाईल. जेव्हा तुम्ही लॉग इन कराल, तेव्हा ‘एफ’ या खुणेवर लक्ष ठेवा. ती वरती डाव्या बाजूला असेल. जर ती नाइटस्टिक झाली तर अभिनंदन! असा संदेश येईल व तुम्हाला गार्ड म्हणजे रक्षक ठरवले जाईल, मग तुमचे काम कैद्यांवर लक्ष ठेवण्याचे असेल. यात खूप दिवस कैदेत ठेवलेले कैदी जेव्हा पोस्ट देतील तेव्हा ती नकारात्मक असेल. अर्थात या कैद्यांवर अनेक बंधने असल्याने ते जेव्हा व्यक्त होतील तेव्हा ते साधारण असेच असेल. फेसबुकचे संभाव्य प्रयोगफेसबुक आता एवढाच प्रयोग करून थांबणार नाही. फेसबुकने आता असे म्हटले आहे, की वापरकर्त्यांची परवानगी न घेता आम्ही आताचा जो प्रयोग केला ती चूकच झाली, पण आता यापुढे असे होऊ नये म्हणून पुढील प्रयोगांची कल्पना दिली जाईल. आता फेसबुक पुढे कोणते प्रयोग करणार आहे ते एका संकेतस्थळाने अगोदरच देऊन टाकले आहे. फेसबुकचा प्रयोगफेसबुकने किमान ६८९००३ वापरकर्त्यांच्या न्यूजफीडमध्ये बदल केले, त्यांच्या सकारात्मक पोस्ट काढून टाकल्या व नकारात्मक पोस्ट टाकल्या. मग त्यांच्या भावनांवर काय परिणाम होतो हे त्यांच्या प्रतिक्रियांवर तपासले. या प्रयोगाने फेसबुकच्या २५०० पैकी एका वापरकर्त्यांला फटका बसला असा अंदाज आहे. १७ जूनच्या ‘प्रोसिडिंग्ज ऑफ द नॅशनल अॅकॅडमी ऑफ सायन्सेस’ या नियतकालिकाने त्यांचे निष्कर्ष संशोधन म्हणून प्रसिद्ध केले. पण बातमीच्या रूपात या सगळ्याचे भांडाफोड ‘द न्यू सायंटिस्ट’ व ‘अॅनिमल न्यूयॉर्क’ या नियतकालिकांनी केले. भावना या संसर्गजन्य असू शकतात, असा निष्कर्ष या फेसबुकवाल्या कथित माहिती वैज्ञानिकांनी काढला. आता त्यासाठी असे संशोधन करण्याचे खरे तर काहीच कारण नाही, कारण घरात एखादी व्यक्ती जरी आजारी असेल तरी सर्व जण दु:खी असतात. फेसबुकचे म्हणणे असे की, मित्रांनी दिलेल्या सुखकारक पोस्ट्स बघितल्या की, वापरकर्त्यांना बरे वाटते, तर वाईट पोस्ट असेल तर वाईट वाटते. पण यासाठी चांगल्या-वाईट पोस्ट फेसबुकच्या वैज्ञानिकांनी मुद्दाम तयार करून न्यूजफीड्स बदलले, त्यासाठी त्यांनी वेगळे अल्गॉरिथम वापरले. थोडक्यात, आपल्याला हवी ती परिस्थिती तयार करून हे संशोधन करण्यात आले. फेसबुकचे माहिती वैज्ञानिक अॅडम डी.आय. क्रॅमर, जेमी ई गुलिओरी (कॅलिफोर्निया विद्यापीठ), जेफ्री टी. हॅनकॉक (कॉर्नेल विद्यापीठ) या संशोधकांनी हा शोधनिबंध लिहिला व प्रिन्सटनच्या सुसान टी फिस्क यांनी तो संपादित केला होता. यात नंतर बरेच तू तू मैं मैं झाले. संशोधकांनी दिलगिरी व्यक्त केली. लोकांची परवानगी का घेतली गेली नाही, असाही प्रश्न करण्यात आला. त्यात फेसबुकच्या अटींचा वापर त्यांनी करून घेतला. यात एक गोष्ट उघड झाली ती आक्षेपार्ह आहे, ती म्हणजे फेसबुक नेहमी न्यूजफीड्स फिल्टर करीत असते, त्याला वापरकर्त्यांच्या जीवनातील हस्तक्षेप म्हणता येईल. पण त्यांना यात एक गोष्ट लक्षात आली नाही की, नकारात्मक पोस्ट दिल्याने वापरकर्ते फेसबुक वापरणे बंद करतील. रोबोटहा आमचा गोपनीय प्रकल्प आहे असे फेसबुक म्हणते. रोबोटची भावनात्मक अभिव्यक्ती कमी होईल; मग भावना सकारात्मक असो की नकारात्मक. त्याच्यात जाहिराती या अपडेट्स म्हणून वापरल्या जातील व तरीही तुम्हाला तुमच्या मित्रांचे अपडेट येत राहतील. पण तुमचे मित्र भावनिक संवादाऐवजी एखाद्या ब्रॅण्डविषयी बोलत असतील तेव्हा तेच पोस्ट तुम्हाला दिसतील. गोपनीय भाग असा की, हा प्रकल्प गेली पाच वर्षे आम्ही चालवीत आहोत. ‘ज्या लोकांच्या फेसबुक न्यूजफीडवरील सकारात्मक आशय आम्ही कमी केला त्यांनी त्यांच्या स्टेटस अपडेटमध्ये नकारात्मक शब्द जास्त वापरले. जेव्हा न्यूजफीडवरील नकारात्मकता कमी केली तेव्हा अपडेटमध्ये सकारात्मक शब्द जास्त आले. याचा अर्थ फेसबुकवर इतरांनी व्यक्त केलेल्या भावनांचा आपल्या भावनांवर परिणाम होतो म्हणजेच भावना संसर्गजन्य असू शकतात.’ - कॉर्नेल विद्यापीठाचे प्राध्यापक जेफ हॅनकॉक. ‘फेसबुकचे सर्वाना घाबरवणारे संतापजनक कृत्य, एवढेच या प्रयोगाचे वर्णन करता येईल, फेसबुकवर दबाव टाकून हवा तो आशय पसरवून सीआयए सुदानमध्ये क्रांती घडवू शकते काय, मार्क झकरबर्ग कुठल्याही निवडणुकीच्या दोन आठवडे आधी हव्या त्या उमेदवाराबाबत सकारात्मक पोस्ट टाकून मते फिरवू शकतील काय व ते कायदेशीर आहे काय..’-अमेरिकी अध्यक्ष बराक ओबामा यांच्या २००८ मधील प्रचार मोहिमेतील ब्लू स्टेट डिजिटल कंपनीचे सहसंस्थापक क्ले जॉनसन. जेव्हा आपण नकारात्मक आणि सकारात्मक असे दोनच पर्याय ठेवलेले असतात तेव्हा अशा परिस्थितीत भावनांच्या विश्लेषणातील अचूकता अगदी आधुनिक तंत्राने ७० ते ८० टक्क्यांपर्यंत असते. हे आकडे जरी फार आकर्षक वाटले तरी प्रत्यक्षात ५० टक्केअचूकता ही नाणे उडवतानाही असू शकते, त्यामुळे प्रत्यक्षात टेक्स्ट अॅनॅलिसिसमध्ये फार चुका होतात. मग त्याआधारे भावनांचे विश्लेषण केले असेल तर त्याची अचूकता फार असू शकत नाही.’- प्रा. मार्टी हर्स्ट, प्रख्यात टेक्स्ट अॅनॅलिस्ट, कॅलिफोर्निया विद्यापीठ