OPENAI का चौंकाने वाला खुलासा: 40 MILLION लोग रोज़ AI से पूछते हैं सेहत के सवाल!
क्या आप भी AI को लेकर परेशान हैं? या सोचते हैं कि हमारी सेहत के लिए AI कितना भरोसेमंद हो सकता है? OpenAI, दुनिया की एक बड़ी AI company, ने healthcare में revolutionary काम किया है। उनके experts, Dr. Nate Gross और Karan Singhal ने बताया कि कैसे AI को safe और effective बनाया जा रहा है, और ये लाखों लोगों की ज़िंदगी कैसे बदल रहा है।
AI और आपकी सेहत: OpenAI का मिशन
Dr. Nate Gross का कहना है कि OpenAI का mission है कि AGI से सभी इंसानों को फायदा हो, और health का क्षेत्र इसमें सबसे साफ रास्ता है। आज की तारीख में healthcare काफी बिखरा हुआ है, मतलब चीज़ें अलग-अलग हैं। मरीजों को अक्सर साल के 364 दिन वो जानकारी नहीं मिल पाती जो उन्हें चाहिए, और doctors के पास भी मरीजों से बात करने के लिए बहुत कम समय होता है। इसका नतीजा ये होता है कि system ज़्यादा reactive है, proactive कम। मतलब, कोई समस्या आने पर ही काम होता है, पहले से तैयारी कम होती है।
Nate Gross को पहले health policy में दिलचस्पी थी, खासकर जब value-based परवाह नया-नया आ रहा था। उनका मानना था कि healthcare को ज़्यादा से ज़्यादा लोगों तक पहुंचाना ज़रूरी है। उन्होंने medical school में देखा कि doctors पुराने साधन जैसे fax machine और paper binder इस्तेमाल कर रहे थे, जबकि बाहर iPhone और App Store जैसी नई technology आ चुकी थी। इसी gap को देखकर उन्हें लगा कि कुछ बड़ा करना होगा।
Karan Singhal का भी यही मानना है। वो पहले philosophy of mind और intelligence पर सोचते थे कि machines कितनी intelligent हो सकती हैं। उन्हें लगा कि AGI हमारी lifetime में ज़रूर आएगा। इसलिए उन्होंने सोचा कि AI का positive impact इंसानों पर कैसे हो सकता है और इसके downsides को कैसे avoid किया जा सकता है। उन्होंने safety और privacy पर काम करते हुए देखा कि LLMs का healthcare में बहुत बड़ा मौका है।
आजकल लोग medical सवाल के लिए chatbots का खूब इस्तेमाल करते हैं। Dr. Nate Gross ने बताया कि हर हफ्ते 900 million लोग ChatGPT का इस्तेमाल करते हैं, और इनमें से हर चौथा व्यक्ति health related queries करता है। मतलब, हर दिन 40 million लोग अपनी सेहत से जुड़े सवालों के लिए ChatGPT का सहारा ले रहे हैं। ये एक बहुत बड़ी जिम्मेदारी और मौका है।
इसी को ध्यान में रखते हुए, OpenAI ने ChatGPT Health बनाया है। इसका मकसद है conversations को secure और empowered बनाना। Secure मतलब आपकी सारी बातें encrypted होंगी और आपकी healthcare data पर कभी भी training नहीं की जाएगी। Empowered का मतलब है कि AI आपके context को समझेगा। पुराने search engines आपकी समस्या को पूरी तरह नहीं समझते थे, लेकिन ChatGPT Health आपकी दी गई जानकारी को याद रखता है, जिससे आपको personalized और ज़्यादा helpful जवाब मिलते हैं।
AI को कैसे बनाया गया भरोसेमंद?
Karan Singhal का कहना है कि healthcare एक high stakes domain है, इसलिए AI का सही होना बहुत ज़रूरी है। OpenAI में health कोशिश की शुरुआत ही safety और grounding को ध्यान में रखकर हुई थी। ये कोई बाद में सोचा गया idea नहीं था, बल्कि काम की नींव थी।
उन्होंने evaluation से शुरुआत की। उन्होंने देखा कि models में कहां कमियां हैं और उन्हें कैसे improve किया जा सकता है। इसके लिए उन्होंने HealthBench नाम का एक खास evaluation system बनाया। इसमें users (जो health professionals या आम लोग हो सकते हैं) और models के बीच realistic conversations को measure किया जाता है ताकि models की performance और safety को परखा जा सके।
इस काम के लिए OpenAI ने 250 physicians के एक group के साथ मिलकर काम किया। इन doctors ने data generation से लेकर evaluation के हर stage में मदद की। उन्होंने तय किया कि किन areas पर ध्यान करना है, कौन सी चीज़ें clinically relevant हैं, और AI के जवाबों को कैसे grade करना है।
एक मिसाल देखो: अगर कोई user सिर्फ "It burns" टाइप करता है, तो AI को सीधे कोई जवाब देने के बजाय और context पूछना चाहिए। ये सबसे helpful और safe तरीका है। HealthBench में ऐसे करीब 49,000 अलग-अलग performance dimensions को measure किया गया। ये एक बहुत detailed evaluation था जिसे बनाने में लगभग एक साल लगा।
Dr. Nate Gross ने बताया कि models को develop करते समय सैकड़ों physicians ने 5,000 से ज़्यादा conversations कीं और 48,500 rubric criteria बनाए ताकि AI के जवाबों को evaluate किया जा सके। इससे models को improve करने, ज़्यादा data acquire करने और किसी खास subspecialty या region के लिए hone करने में मदद मिली।
वो कहते हैं कि healthcare कोई multiple choice exam नहीं है। मरीजों की अपनी कहानियां, complexities और context होते हैं। AI को ये समझना होगा कि कब escalate करना है और कैसे escalate करना है। जैसे, एक oncologist, primary परवाह doctor, pharmacist या एक आम patient के लिए AI को अलग-अलग तरह से जवाब देना आना चाहिए। ये adaptive literacy बहुत ज़रूरी है।
पहले AI models अक्सर overconfident hallucinations करते थे, मतलब गलत जानकारी को भी पूरे भरोसे के साथ बताते थे। लेकिन healthcare जैसे high stakes field में ये बहुत खतरनाक हो सकता है। इसलिए models को ये सिखाया गया है कि जब उन्हें कुछ नहीं पता हो, तो वो साफ-साफ बताएं। साथ ही, वो follow-up suggestions भी दें, जैसे कोई test या referral, ताकि patient को सबसे अच्छा नतीजा मिल सके।
Karan Singhal का दावा है कि OpenAI के models HealthBench और दूसरे benchmarks में लगातार काफी आगे रहे हैं। इसकी वजह ये है कि OpenAI ने health को model training के हर phase में integrate किया है – pre-training से लेकर post-training तक।
AI की चुनौतियाँ और भविष्य की राह
AI की intelligence की cost लगातार कम हो रही है, जिससे ज़्यादा से ज़्यादा लोग इस technology का फायदा उठा पा रहे हैं। Karan Singhal का कहना है कि OpenAI ChatGPT Health को सभी free users के लिए ज़्यादा widely roll out करने पर काम कर रहा है।
भविष्य में, AI के लिए एक चुनौती ये है कि multi-modal data को कैसे integrate किया जाए। आजकल लोग wearables, lab tests और दूसरी चीज़ों से बहुत सारा data collect करते हैं। अगर AI इस सारे data को integrate कर सके, तो वो ऐसी predictions दे पाएगा जो इंसान भी नहीं कर सकते, क्योंकि AI के पास ज़्यादा context size होगा।
Karan Singhal ने Waymo self-driving cars का एक उदाहरण दिया। वो कहते हैं कि San Francisco में जब वो Waymo car के बगल में bike चलाते हैं, तो उन्हें इंसानी driver के मुकाबले ज़्यादा safe महसूस होता है। वो चाहते हैं कि health AI भी लोगों को ऐसा ही protective effect दे। जैसे, अगर आपके family में कोई doctor हो तो आपकी health में एक protective effect आता है, वैसे ही AI भी patient और health professional दोनों के लिए safety net बने।
OpenAI ने Nairobi में PandaHealth के साथ मिलकर एक AI clinical co-pilot study भी की। इसमें 20 clinics में clinicians को एक safety net deploy किया गया। ये system उनके electronic health record में टाइप की गई चीज़ों को monitor करता था और अगर कोई संभावित error या चिंताजनक बात होती थी, तो उन्हें interrupt करता था। इस study में diagnostic और treatment errors में statistically significant reduction देखने को मिला। ये दिखाता है कि AI workflows में deploy होने के बाद कितना impactful हो सकता है।
Dr. Nate Gross ने professional side की चुनौतियों पर भी बात की। Doctors को AI के जवाबों पर trust करने की ज़रूरत है। इसलिए AI models को सिर्फ अपने training data पर आधारित नहीं होना चाहिए, बल्कि latest medical literature, guidelines और यहां तक कि किसी खास institution या region की guidance पर भी grounded होना चाहिए।
Healthcare systems अभी भी काफी siloed हैं, मतलब अलग-अलग साधन और organizations एक-दूसरे से जुड़े नहीं हैं। AI अब इन सैकड़ों systems को एक साथ जोड़ने का काम कर रहा है, चाहे वो analog हों या digital, structured हों या unstructured। OpenAI के products जैसे ChatGPT for healthcare, OpenAI API for healthcare और Frontier Foundation for models and agents, इस connectivity को बढ़ा रहे हैं ताकि healthcare system में तेज़ी लाई जा सके।
OpenAI healthcare industry के साथ मिलकर काम कर रहा है। ChatGPT Health app में patient अपने records को आसानी से add कर सकते हैं। इसके लिए सरकार और Centers for Medicare and Medicaid Services के साथ मिलकर national standards बनाए जा रहे हैं ताकि electronic health record syncing आसान हो सके। इसका मकसद है कि हर patient को AI से सबसे अच्छे जवाब मिलें और वो अपनी health परवाह में पूरी तरह से participate कर सकें।
आप क्या सोचते हो? टिप्पणी में बताओ! 🎧 Dr. Nate Gross और Karan Singhal का full interview सुनने के लिए ऊपर Play button दबाओ! अगर ये जानकारी अच्छी लगी तो साझा करो ज़रूर करो।
Jhakkas के बारे में
Jhakkas लाता है दुनिया के सबसे interesting ideas और interviews. आसान भाषा में, आपकी भाषा में. Tech, काम और future के बारे में articles और podcasts.



