RootData 무료 푸시: 최초 자금 조달 정보를 제출하면 승인 후 앱 푸시 서비스를 이용할 수 있습니다. [즉시 연락]

研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力

2025-06-20 10:03:23

공유하십시오
ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。 研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅為獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象為"認知負債"------短期內減輕思維負擔但長期導致批判性思維和創造力下降。 ![](https://www.chaincatcher.com/upload/image/20250620/1750385002485-654222.webp)

펀딩 정보

더보기
-- 06-20
$4.2 M 06-20
$10.8 M 06-19

최근 출시 토큰

더보기
06-19
06-19

𝕏 최신 관심

더보기