‘फेसबुक’ या आभासी जगातील सामाजिक संकेतस्थळाने २०१२ मध्ये आपल्या किमान ६८९००३ ग्राहकांशी प्रतारणा करून गुपचूप त्यांच्या भावनांशी खेळ केला, भावनांचा संसर्ग पसरवला; एक प्रकारे त्यांना गिनिपिग बनवले. त्यांनी मानवी भावनांचे संशोधन करण्याचा प्रयत्न केला, तेव्हा कुणालाच विश्वासात घेतले नाही, त्यामुळे खरा विश्वासघात झाला, पण येथे नीतिनियम सोडले व फक्त संशोधन हा निकष मानला तर त्यांनी ही बाब गुप्त ठेवली नसती तर सर्वाचे वर्तन हे ठरवून केलेले राहिले असते. मानसिक संशोधन किंवा भावनांचे संशोधन या अशा वरवरच्या उपायांनी करण्याच्या गोष्टी नसतात. मानसशास्त्रज्ञ सिग्मंड फ्रॉइड एकेका व्यक्तीवर बारा-बारा वर्षे मानसिक संशोधन करीत असे. त्यामुळे ही काही सामाजिक संकेतस्थळावर करायची गोष्टच नाही. या विश्वासघाती कृत्यावर फेसबुकप्रेमींसाठी हे विचारमंथन..

ग्राहक संशोधन
ग्राहक संशोधन हा तर या संकेतस्थळांचा एक माहिती गोळा करण्याचा धंदा आहे. तुम्ही काय सर्च करता यावरून तुमची माहिती कंपन्यांना पाठवली जाते. मग या कंपन्यांना संभाव्य ग्राहक कळतात, माहितीचा असा वापर करणे हा माहिती तंत्रज्ञान कायद्यानुसार गुन्हा असला तरी आधुनिक जगाचे ते माहिती संकलनाचे हत्यार आहे; फक्त त्यासाठी संबंधित ग्राहकाची परवानगी विचारण्याच्या भानगडीत कुणी पडत नाही. सामाजिक प्रयोग ज्याला आपण सोशल एक्सपिरिमेंट असे म्हणतो ते, यूटय़ूब व इतर आपली पारंपरिक माध्यमेही कधी कधी करीत असतात. डिसेंबर २०१२ मध्ये जेव्हा दिल्लीत एका मुलीवर सामूहिक बलात्कार झाला व ती नंतर मरणही पावली, त्या वेळी जाणाऱ्या-येणाऱ्या कुणीही त्यांना मदत केली नाही, त्यामुळे लोकांची संवेदनशीलता वाढवण्यासाठी एक-दोन मिनिटांचे चित्रीकरण यूटय़ूबवर दाखवण्यात आले. त्यात एका मोटारीतून किंचाळ्या ऐकू येत होत्या, एक जण बाजूने निघून गेला. एक मात्र खरोखरच थांबला व गाडीच्या काचा खाली करून आत डोकावले तर आत कुणीच नव्हते. त्या किंचाळय़ा, आक्रंदन ध्वनिमुद्रित केलेले होते, अशा प्रयोगांना सामाजिक प्रयोग असे म्हणतात. आपल्याकडेही पंतप्रधान नरेंद्र मोदी यांनी त्यांच्या पक्षातील नेत्यांना जे धडे दिले त्यात सामाजिक संकेतस्थळावर काय येते आहे त्यावरून समाजात काय चालले आहे यावर लक्ष ठेवा किंवा समाजाची नाडी ओळखा, असा मोलाचा संदेश दिला आहे. पण आभासी संकेतस्थळावरची ही नाडीपरीक्षा लोकसभा निवडणुकीत बरोबर ठरली तरी प्रत्येक वेळी बरोबर ठरेल असे नाही. कित्येक वर्षे एकत्र राहिलेल्या पती-पत्नींना एकमेकांच्या आवडीनिवडी विचारल्या तरी सांगता येतातच असे नाही. एकमेकांची सुखदु:खे कळतात असे नाही; तिथे संगणकाची काय कथा. ते तर यंत्र आहे. यंत्रमानवाला भावना प्रदान करण्याचे प्रयत्न चालू आहेत, पण त्यासाठी फार काळ जावा लागेल. एवढेच म्हणता येईल की, अशा प्रयोगातून घरोघरी जाऊन पाहणी करण्याऐवजी शॉर्टकट घेतले जातात, पण प्रत्येक वेळी ते योग्य ठरत नाहीत. माणसाचा मूड माणूसच ओळखेल की यंत्र असा प्रश्न पडल्यावाचून राहत नाही.

शब्दकोशातील शब्दांचा पोस्ट बनवण्यासाठी वापर
फेसबुकने त्यांचे संदेश तयार करण्यासाठी एक तिसरेच सॉफ्टवेअर वापरले. त्यात ४५०० शब्द होते, त्यात काही सकारात्मक व काही नकारात्मक होते. त्यांनी ते शब्द वापरून ३० लाख पोस्ट तयार केल्या होत्या. यात शब्दांच्या छटा महत्त्वाच्या असतात. त्यामुळे भावनांचे विश्लेषण अचूक असण्याची शक्यता कमी होते. एखाद्याने प्रतिसादासाठी दिलेल्या पोस्टमध्ये कुठले शब्द वापरले आहेत, त्यातील संदर्भ काय आहेत हे माहीत नसताना वापरकर्त्यांच्या भावनाही आम्ही बदलल्या, हा फेसबुकचा दावा फुसका आहे. संशोधनात कोडिंगला महत्त्व असते व ते तयार करणाऱ्यांना ‘कोडर’ म्हणतात. लंडनचे कोडर जॉन्टी व्ॉरिंग यांनी हा मुद्दा जास्त चांगला मांडला आहे. ते म्हणतात, एखाद्या व्यक्तीने डॅम गुड असा शब्द वापरला तर त्याचा अर्थ, काय आपण फार चांगले, असा लावू, पण संगणकाला ते कळत नाही. आता यात सकारात्मक व नकारात्मक अशा दोन शब्दांचे मिश्रण आहे. डॅम हा नकारात्मक शब्द आहे तर गुड हा सकारात्मक शब्द आहे; मग याता याचे वर्गीकरण कुठल्या आधारावर कसे करायचे. त्यामुळे शब्दांच्या खेळात संगणकाची नेहमी दांडी उडते तसे झाले. कुणी डॅम गुड म्हटले तर संगणकाला ‘डॅम’ या शब्दामुळे ती नकारात्मक भावना वाटली असली तर नवल नाही.

पावलोव– फेसबुक तुम्हाला रस असलेल्या जाहिराती दाखवते. त्यापेक्षा आम्ही नवीन जाहिराती करून त्या दाखवू, त्यावर तुमचे काय मत होते हे जाणून घेऊ.

स्प्लिटव्हिले– कुणी तरी तुम्हाला डिफ्रेण्ड करते, म्हणजे तुमची मैत्री तोडते तेव्हा फेसबुक तुम्हाला ते सांगत नाही, यापुढे आम्ही ते तुम्हाला सांगू. ऑनलाइन नाते का तुटते ते यातून कळेल. त्याचा भावनात्मक परिणामही तपासू, असेही फेसबुकच म्हणणे आहे.

स्टॅनफर्ड
फेसबुक वापरकर्त्यांना कैदी व रक्षक असे विभागले जाईल. जेव्हा तुम्ही लॉग इन कराल, तेव्हा ‘एफ’ या खुणेवर लक्ष ठेवा. ती वरती डाव्या बाजूला असेल. जर ती नाइटस्टिक झाली तर अभिनंदन! असा संदेश येईल व तुम्हाला गार्ड म्हणजे रक्षक ठरवले जाईल, मग तुमचे काम कैद्यांवर लक्ष ठेवण्याचे असेल. यात खूप दिवस कैदेत ठेवलेले कैदी जेव्हा पोस्ट देतील तेव्हा ती नकारात्मक असेल. अर्थात या कैद्यांवर अनेक बंधने असल्याने ते जेव्हा व्यक्त होतील तेव्हा ते साधारण असेच असेल.

फेसबुकचे संभाव्य प्रयोग
फेसबुक आता एवढाच प्रयोग करून थांबणार नाही. फेसबुकने आता असे म्हटले आहे, की वापरकर्त्यांची परवानगी न घेता आम्ही आताचा जो प्रयोग केला ती चूकच झाली, पण आता यापुढे असे होऊ नये म्हणून पुढील प्रयोगांची कल्पना दिली जाईल. आता फेसबुक पुढे कोणते प्रयोग करणार आहे ते एका संकेतस्थळाने अगोदरच देऊन टाकले आहे.

फेसबुकचा प्रयोग
फेसबुकने किमान ६८९००३ वापरकर्त्यांच्या न्यूजफीडमध्ये बदल केले, त्यांच्या सकारात्मक पोस्ट काढून टाकल्या व नकारात्मक पोस्ट टाकल्या. मग त्यांच्या भावनांवर काय परिणाम होतो हे त्यांच्या प्रतिक्रियांवर तपासले. या प्रयोगाने फेसबुकच्या २५०० पैकी एका वापरकर्त्यांला फटका बसला असा अंदाज आहे. १७ जूनच्या ‘प्रोसिडिंग्ज ऑफ द नॅशनल अ‍ॅकॅडमी ऑफ सायन्सेस’ या नियतकालिकाने त्यांचे निष्कर्ष संशोधन म्हणून प्रसिद्ध केले. पण बातमीच्या रूपात या सगळ्याचे भांडाफोड ‘द न्यू सायंटिस्ट’ व ‘अ‍ॅनिमल न्यूयॉर्क’ या नियतकालिकांनी केले. भावना या संसर्गजन्य असू शकतात, असा निष्कर्ष या फेसबुकवाल्या कथित माहिती वैज्ञानिकांनी काढला. आता त्यासाठी असे संशोधन करण्याचे खरे तर काहीच कारण नाही, कारण घरात एखादी व्यक्ती जरी आजारी असेल तरी सर्व जण दु:खी असतात. फेसबुकचे म्हणणे असे की, मित्रांनी दिलेल्या सुखकारक पोस्ट्स बघितल्या की, वापरकर्त्यांना बरे वाटते, तर वाईट पोस्ट असेल तर वाईट वाटते. पण यासाठी चांगल्या-वाईट पोस्ट फेसबुकच्या वैज्ञानिकांनी मुद्दाम तयार करून न्यूजफीड्स बदलले, त्यासाठी त्यांनी वेगळे अल्गॉरिथम वापरले. थोडक्यात, आपल्याला हवी ती परिस्थिती तयार करून हे संशोधन करण्यात आले. फेसबुकचे माहिती वैज्ञानिक अ‍ॅडम डी.आय. क्रॅमर, जेमी ई गुलिओरी (कॅलिफोर्निया विद्यापीठ), जेफ्री टी. हॅनकॉक (कॉर्नेल विद्यापीठ) या संशोधकांनी हा शोधनिबंध लिहिला व प्रिन्सटनच्या सुसान टी फिस्क यांनी तो संपादित केला होता. यात नंतर बरेच तू तू मैं मैं झाले. संशोधकांनी दिलगिरी व्यक्त केली. लोकांची परवानगी का घेतली गेली नाही, असाही प्रश्न करण्यात आला. त्यात फेसबुकच्या अटींचा वापर त्यांनी करून घेतला. यात एक गोष्ट उघड झाली ती आक्षेपार्ह आहे, ती म्हणजे फेसबुक नेहमी न्यूजफीड्स फिल्टर करीत असते, त्याला वापरकर्त्यांच्या जीवनातील हस्तक्षेप म्हणता येईल. पण त्यांना यात एक गोष्ट लक्षात आली नाही की, नकारात्मक पोस्ट दिल्याने वापरकर्ते फेसबुक वापरणे बंद करतील. 

रोबोट
हा आमचा गोपनीय प्रकल्प आहे असे फेसबुक म्हणते. रोबोटची भावनात्मक अभिव्यक्ती कमी होईल; मग भावना सकारात्मक असो की नकारात्मक. त्याच्यात जाहिराती या अपडेट्स म्हणून वापरल्या जातील व तरीही तुम्हाला तुमच्या मित्रांचे अपडेट येत राहतील. पण तुमचे मित्र भावनिक संवादाऐवजी एखाद्या ब्रॅण्डविषयी बोलत असतील तेव्हा तेच पोस्ट तुम्हाला दिसतील. गोपनीय भाग असा की, हा प्रकल्प गेली पाच वर्षे आम्ही चालवीत आहोत.

 ‘ज्या लोकांच्या फेसबुक न्यूजफीडवरील सकारात्मक आशय आम्ही कमी केला त्यांनी त्यांच्या स्टेटस अपडेटमध्ये नकारात्मक शब्द जास्त वापरले. जेव्हा न्यूजफीडवरील नकारात्मकता कमी केली तेव्हा अपडेटमध्ये सकारात्मक शब्द जास्त आले. याचा अर्थ फेसबुकवर इतरांनी व्यक्त केलेल्या भावनांचा आपल्या भावनांवर परिणाम होतो म्हणजेच भावना संसर्गजन्य असू शकतात.’

कॉर्नेल विद्यापीठाचे प्राध्यापक जेफ हॅनकॉक.

‘फेसबुकचे सर्वाना घाबरवणारे संतापजनक कृत्य, एवढेच या प्रयोगाचे वर्णन करता येईल, फेसबुकवर दबाव टाकून हवा तो आशय पसरवून सीआयए सुदानमध्ये क्रांती घडवू शकते काय, मार्क झकरबर्ग कुठल्याही निवडणुकीच्या दोन आठवडे आधी हव्या त्या उमेदवाराबाबत सकारात्मक पोस्ट टाकून मते फिरवू शकतील काय व ते कायदेशीर आहे काय..’
अमेरिकी अध्यक्ष बराक ओबामा यांच्या २००८ मधील प्रचार मोहिमेतील ब्लू स्टेट डिजिटल कंपनीचे सहसंस्थापक क्ले जॉनसन.

जेव्हा आपण नकारात्मक आणि सकारात्मक असे दोनच पर्याय ठेवलेले असतात तेव्हा अशा परिस्थितीत भावनांच्या विश्लेषणातील अचूकता अगदी आधुनिक तंत्राने ७० ते ८० टक्क्यांपर्यंत असते. हे आकडे जरी फार आकर्षक वाटले तरी प्रत्यक्षात ५० टक्केअचूकता ही नाणे उडवतानाही असू शकते, त्यामुळे प्रत्यक्षात टेक्स्ट अ‍ॅनॅलिसिसमध्ये फार चुका होतात. मग त्याआधारे भावनांचे विश्लेषण केले असेल तर त्याची अचूकता फार असू शकत नाही.’
प्रा. मार्टी हर्स्ट, प्रख्यात टेक्स्ट अ‍ॅनॅलिस्ट, कॅलिफोर्निया विद्यापीठ