研究:長期依賴 ChatGPT 等大型語言模型或將損害認知能力
2025-06-20 10:03:23
공유하십시오

ChainCatcher 消息,麻省理工學院、韋爾斯利學院和馬薩諸塞藝術學院的研究團隊最新發現,長期依賴 ChatGPT 等大型語言模型(LLM)可能損害認知能力。
研究顯示,使用 AI 寫作的參與者大腦中 Alpha 波連接數量僅為獨立思考者的一半(42 比 79),且 83.3%無法準確引用自己的文章內容。研究者稱這種現象為"認知負債"------短期內減輕思維負擔但長期導致批判性思維和創造力下降。

최신 뉴스
트럼프 "이란, 평화 혹은 비극이 있을 것"
CoinNess
2025-06-22 10:09:15
트럼프 "이란 핵 시설 완전 파괴"
CoinNess
2025-06-22 10:05:27
CNN "트럼프, 이란 공습 후 이스라엘 총리와 통화"
CoinNess
2025-06-22 09:18:22
이란 국영 TV "이란 내 모든 미국 시민과 군대는 이제 표적"
CoinNess
2025-06-22 09:16:03
트럼프 "이란, 즉시 멈추지 않으면 다시 공격당할 것"
CoinNess
2025-06-22 09:10:56