DARIO AMODEI का 3 चौंकाने वाला दावा: AI TSUNAMI आ रहा है, समाज तैयार नहीं!
क्या आप भी AI को लेकर परेशान हैं, या आपको लगता है कि अभी इसमें बहुत वक्त है? Anthropic के CEO Dario Amodei — जो पहले OpenAI में research lead थे — का कहना है कि AI इंसानी intelligence के बहुत करीब है। लेकिन, चौंकाने वाली बात ये है कि समाज इस 'AI Tsunami' के लिए बिलकुल तैयार नहीं है। चलो जानते हैं Dario Amodei के 3 बड़े दावे और क्यों वो AI के भविष्य को लेकर चिंता में हैं।
फिर उन्होंने AlexNet जैसे शुरुआती neural nets पर काम देखा, करीब 15 साल पहले की बात है। उन्हें लगा कि AI शायद biology की समस्याओं का हल निकाल सकता है। यहीं से उनका AI की तरफ रुझान बढ़ा। वो Andrew Ng के साथ काम करने गए, फिर Google में एक साल रहे, और फिर OpenAI के शुरू होने के कुछ महीने बाद उसे join किया। OpenAI में उन्होंने कई सालों तक सारी research संभाली।
लेकिन, फिर Dario और कुछ और कर्मचारी का अपना एक vision था कि AI को कैसे बनाना चाहिए और company किस बात के लिए जानी जाए। इसी वजह से वो OpenAI से अलग हुए और उन्होंने अपनी company Anthropic शुरू की।
<h2>AI की 'Scaling Laws' और आज का AI कितना अलग है?</h2> Dario Amodei के मुताबिक, Anthropic बनाने की एक बड़ी वजह थी 'scaling laws' में उनका पक्का मानना। Scaling laws का मतलब है कि अगर आप AI models को ज़्यादा data, ज़्यादा compute और बड़ा model size देते हैं, तो उनकी performance में ज़बरदस्त बढ़ोतरी होती है। Dario ने 2019 में GPT-2 के साथ इसके पहले संकेत देखे थे। पहले बहुत से लोग इस पर यकीन नहीं करते थे, लेकिन धीरे-धीरे सबने इसे मानना शुरू किया।Dario Amodei का कहना है: "अगर आप ingredients को chemical reaction में डालते हैं — data और model size के ingredients — तो आपको intelligence मिलती है। Intelligence एक chemical reaction का product है।"
ज़रा सोचो, आज का AI 5 साल पहले के computer से कितना अलग है। 5 साल पहले, आप computer से एक सवाल पूछकर एक page का essay नहीं लिखवा सकते थे, न ही code में कोई feature implement करवा सकते थे। आप images या videos generate या analyze भी नहीं कर सकते थे। लेकिन अब Claude जैसे AI models एक video देखकर बता सकते हैं कि उसमें क्या हो रहा है, या कितनी बार ball ने हाथ बदले।
आज का AI सिर्फ internet पर मौजूद text को search नहीं करता, बल्कि वो खुद सोच सकता है और जवाब दे सकता है। अगर आप उसे एक hypothetical हालात दो, जैसे "अगर monkey clubs से juggling करे तो क्या होगा?", तो वो उसका भी जवाब दे पाएगा, भले ही वो जानकारी internet पर कहीं मौजूद न हो। ये सच में एक totally new चीज़ है।
<h2>AI का खतरा, Power Concentration और Anthropic का नज़रिया</h2> Dario Amodei की दूसरी बड़ी conviction ये थी कि अगर ये models इंसानी दिमाग की capability वाले general cognitive agents बन रहे हैं, तो हमें इसे सही तरीके से करना होगा। वो आर्थिक, geopolitical और safety implications को बहुत बड़ा मानते हैं। उनका मानना है कि AI दुनिया के काम करने के तरीके को पूरी तरह से बदल देगा।Dario को AI industry में power concentration को लेकर परेशानी है। उनका कहना है कि ये सब रातों-रात, एक accident की तरह हो गया है। Anthropic ने इस पर ध्यान देने के लिए एक अलग governance structure बनाई है, जिसे Long-Term Benefit Trust कहते हैं। इसमें financially disinterested लोग होते हैं जो board members चुनते हैं, ताकि किसी एक इंसान की power पर check रहे।
Dario सरकार से भी sensible regulation की वकालत करते हैं, जो technology को धीमा न करे लेकिन लोगों की सुरक्षा सुनिश्चित करे। उनका मानना है कि सरकार और लोग, जिन्हें वो चुनते हैं, उन्हें इसमें अपनी बात रखनी चाहिए। Anthropic ने California में SB 53 जैसे transparency law का समर्थन किया है, जो सिर्फ बड़ी companies (500 मिलियन डॉलर से ज़्यादा revenue वाली) पर लागू होता है, ताकि छोटी companies पर बोझ न पड़े।
Anthropic की philosophy रही है कि वो ज़्यादा वादे नहीं करते, और जो करते हैं उन्हें पूरा करते हैं। वो एक for-profit public benefit corporation हैं जो technology के frontier पर रहते हुए safety और security aspects पर काम करते हैं। उन्होंने interpretability (neural nets के अंदर देखना) और alignment (models को सही तरीके से behave करवाना) के science में बहुत काम किया है। हाल ही में उन्होंने Claude के लिए एक constitution भी जारी की है। Dario का कहना है कि risks के बारे में चेतावनी देना उनके commercial interest में नहीं है, फिर भी वे ये करते हैं क्योंकि ये सही है।
<h2>AI कितना जानता है आपको?</h2> Nikhil Kamath ने बताया कि उन्होंने Anthropic के Claude को अपने Google Drive, mail और calendar से connect किया और पाया कि Claude उन्हें हैरान कर देता है कि वो उन्हें कितना जानता है।Dario ने एक और उदाहरण दिया। उनके एक co-founder अपनी diary में अपने thoughts और fears लिखते थे। उन्होंने उस diary को Claude में feed किया और Claude से उस पर टिप्पणी करने को कहा। Claude ने फिर कुछ और fears बताए जो उनके co-founder ने नहीं लिखे थे, और Claude उनमें से ज़्यादातर में सही निकला।
Dario Amodei का कहना है: "एक चीज़ जो आपको बहुत अच्छे से जानती है वो आपके कंधे पर एक angel की तरह हो सकती है जो आपकी ज़िंदगी को guide करे और आपको अपना बेहतर version बनाए।"
ये बात सुनकर हैरान हो गए ना? एक AI जो आपको इतना जानता है, वो एक तरफ तो आपकी मदद कर सकता है, आपको guide कर सकता है, लेकिन दूसरी तरफ, वो इस जानकारी का इस्तेमाल आपको exploit या manipulate करने के लिए भी कर सकता है। Dario का कहना है कि technical work AI systems को नियंत्रण करने में उम्मीद से बेहतर रहा है, लेकिन societal awareness उम्मीद से थोड़ी कम रही है। ये एक बड़ी समस्या है जिस पर हमें ध्यान देना होगा।
आप क्या सोचते हो? क्या आप भी AI Tsunami के लिए तैयार हो? टिप्पणी में बताओ! 🎧 Dario Amodei का full interview सुनने के लिए ऊपर Play button दबाओ! अगर ये जानकारी अच्छी लगी तो साझा करो ज़रूर करो।
Jhakkas के बारे में
Jhakkas लाता है दुनिया के सबसे interesting ideas और interviews. आसान भाषा में, आपकी भाषा में. Tech, काम और future के बारे में articles और podcasts.



