구글 젬마 AI 스튜디오 제거, 명예훼손 논란 5가지 핵심
bit.ly/4qKtZg4
구글이 AI 스튜디오에서 젬마 모델을 제거했어요. 미국 상원의원이 허위 명예훼손 내용을 생성한다고 고발한 후 내린 조치인데요. AI 모델의 할루시네이션 문제가 단순한 오류를 넘어 법적 문제로 번지고
bit.ly/4qKtZg4
구글이 AI 스튜디오에서 젬마 모델을 제거했어요. 미국 상원의원이 허위 명예훼손 내용을 생성한다고 고발한 후 내린 조치인데요. AI 모델의 할루시네이션 문제가 단순한 오류를 넘어 법적 문제로 번지고
November 3, 2025 at 8:30 AM
구글 젬마 AI 스튜디오 제거, 명예훼손 논란 5가지 핵심
bit.ly/4qKtZg4
구글이 AI 스튜디오에서 젬마 모델을 제거했어요. 미국 상원의원이 허위 명예훼손 내용을 생성한다고 고발한 후 내린 조치인데요. AI 모델의 할루시네이션 문제가 단순한 오류를 넘어 법적 문제로 번지고
bit.ly/4qKtZg4
구글이 AI 스튜디오에서 젬마 모델을 제거했어요. 미국 상원의원이 허위 명예훼손 내용을 생성한다고 고발한 후 내린 조치인데요. AI 모델의 할루시네이션 문제가 단순한 오류를 넘어 법적 문제로 번지고
암튼 여행계획 짜다가 머리 아파서 ai한테 호텔 위치, 항공권 출입국 시간, 반드시 방문해야 하는 장소와 목적을 알려주며 오타쿠 투어라고 동선 좀 짜보라고 시켰는데 결과적으로 할루시네이션이 있고 그대로 쓸 순 없다...근데 요새 ai들은 초기 버전처럼 학습된 데이터만 뱉는게 아니라 온라인 정보도 검색해서 쓰는데, 할루시네이션 (원피스 무기와라스토어는 시부야에 없는데 시부야 파르코 점프샵 위치를 알려주며 거기가 무기와라스토어라고 함) 이 대체 왜 나지 싶어 검색해봤더니 이미 다른 누군가가 ai로 헛소리를 적어서 그것을 웹에 올렸고
October 24, 2025 at 2:19 PM
암튼 여행계획 짜다가 머리 아파서 ai한테 호텔 위치, 항공권 출입국 시간, 반드시 방문해야 하는 장소와 목적을 알려주며 오타쿠 투어라고 동선 좀 짜보라고 시켰는데 결과적으로 할루시네이션이 있고 그대로 쓸 순 없다...근데 요새 ai들은 초기 버전처럼 학습된 데이터만 뱉는게 아니라 온라인 정보도 검색해서 쓰는데, 할루시네이션 (원피스 무기와라스토어는 시부야에 없는데 시부야 파르코 점프샵 위치를 알려주며 거기가 무기와라스토어라고 함) 이 대체 왜 나지 싶어 검색해봤더니 이미 다른 누군가가 ai로 헛소리를 적어서 그것을 웹에 올렸고
저거 그럼 진짜 대충 생성형 AI에 던져넣은 할루시네이션 답변 맞나본데요 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
September 19, 2025 at 2:23 AM
저거 그럼 진짜 대충 생성형 AI에 던져넣은 할루시네이션 답변 맞나본데요 ㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋㅋ
무직
현 잠정칭 근거 할루시네이션
자료를 기반으로 하였으나 사실이지 않은 일의 현재의 AI의 답변인 자료의 일
현 잠정칭 근거 할루시네이션
자료를 기반으로 하였으나 사실이지 않은 일의 현재의 AI의 답변인 자료의 일
September 17, 2025 at 4:10 AM
무직
현 잠정칭 근거 할루시네이션
자료를 기반으로 하였으나 사실이지 않은 일의 현재의 AI의 답변인 자료의 일
현 잠정칭 근거 할루시네이션
자료를 기반으로 하였으나 사실이지 않은 일의 현재의 AI의 답변인 자료의 일
@ AI LLM 모델들이 보여주는
헛소리 지어내기(할루시네이션) 현상은
사실 AI와 인간의 차이점이 아니라
유사성의 방증에 가깝다고.
인간 기억의 특성 중 하나가
결손부위를 허구의 짜깁기로 채워넣는
작화증(말짓기증)이기 때문에.
t.co/s8bk4JtPAe
헛소리 지어내기(할루시네이션) 현상은
사실 AI와 인간의 차이점이 아니라
유사성의 방증에 가깝다고.
인간 기억의 특성 중 하나가
결손부위를 허구의 짜깁기로 채워넣는
작화증(말짓기증)이기 때문에.
t.co/s8bk4JtPAe
https://www.nobelprize.org/events/nobel-prize-dialogue/madrid-2025/
t.co
September 15, 2025 at 5:25 AM
@ AI LLM 모델들이 보여주는
헛소리 지어내기(할루시네이션) 현상은
사실 AI와 인간의 차이점이 아니라
유사성의 방증에 가깝다고.
인간 기억의 특성 중 하나가
결손부위를 허구의 짜깁기로 채워넣는
작화증(말짓기증)이기 때문에.
t.co/s8bk4JtPAe
헛소리 지어내기(할루시네이션) 현상은
사실 AI와 인간의 차이점이 아니라
유사성의 방증에 가깝다고.
인간 기억의 특성 중 하나가
결손부위를 허구의 짜깁기로 채워넣는
작화증(말짓기증)이기 때문에.
t.co/s8bk4JtPAe
"中대학생 80%, 'AI 할루시네이션' 경험…표절·정보조작 우려"
www.yna.co.kr/view/AKR2025...
www.yna.co.kr/view/AKR2025...
"中대학생 80%, 'AI 할루시네이션' 경험…표절·정보조작 우려" | 연합뉴스
(서울=연합뉴스) 김준억 기자 = 중국 대학생 10명 중 8명은 생성형 인공지능(AI)이 허위 정보를 생성하는 할루시네이션(hallucinati...
www.yna.co.kr
August 20, 2025 at 1:13 PM
"中대학생 80%, 'AI 할루시네이션' 경험…표절·정보조작 우려"
www.yna.co.kr/view/AKR2025...
www.yna.co.kr/view/AKR2025...
아진짜 챗지피티 시발 유료버전인데 왤케 할루시네이션 개심하냐
개또라이병신AI ㅡㅡ
개또라이병신AI ㅡㅡ
July 31, 2025 at 2:45 PM
아진짜 챗지피티 시발 유료버전인데 왤케 할루시네이션 개심하냐
개또라이병신AI ㅡㅡ
개또라이병신AI ㅡㅡ
하지만 현재 방식의 AI는 - 내재적 한계인 할루시네이션 현상은 그렇다치고 (지난 번에 판례공보 요약해달라고 했는데 조문을 지멋대로 바꾼 경우가 있었음) + 사람들이 AI가 형을 구형하거나 내렸을 때 받아들일 것인지도 그렇다치고 - 판례변경이 원초적으로 불가능하다는 점이...너무 큰 한계입니다.
July 29, 2025 at 2:38 AM
하지만 현재 방식의 AI는 - 내재적 한계인 할루시네이션 현상은 그렇다치고 (지난 번에 판례공보 요약해달라고 했는데 조문을 지멋대로 바꾼 경우가 있었음) + 사람들이 AI가 형을 구형하거나 내렸을 때 받아들일 것인지도 그렇다치고 - 판례변경이 원초적으로 불가능하다는 점이...너무 큰 한계입니다.
AI의 부정적 면...당연히 알고 있고 저작권 문제, 환경적 문제, 할루시네이션 문제, 과대평가된 AI에 대한 적절한 걸러내기 없는 의존...문제라고 생각해요
저작권 문제와 환경적 문제는 AI 기술발달에 쏠리는 눈을 조금 나눠 제도적 해결법에 대해 좀더 이야기하고 제대로 법제화했으면 합니다
AI에 대한 의존도나 할루시네이션을 주의하지 않는 신뢰는 미디어 리터러시에서 이어진 문제라고 생각합니다
하지만...어떤 신경다양인들에게는 이런 많은 문제들에 죄책감을 가지면서도 쓸 수밖에 없을 때가 있다는 걸 알아주었으면 좋겠어요
저작권 문제와 환경적 문제는 AI 기술발달에 쏠리는 눈을 조금 나눠 제도적 해결법에 대해 좀더 이야기하고 제대로 법제화했으면 합니다
AI에 대한 의존도나 할루시네이션을 주의하지 않는 신뢰는 미디어 리터러시에서 이어진 문제라고 생각합니다
하지만...어떤 신경다양인들에게는 이런 많은 문제들에 죄책감을 가지면서도 쓸 수밖에 없을 때가 있다는 걸 알아주었으면 좋겠어요
July 23, 2025 at 9:57 AM
AI의 부정적 면...당연히 알고 있고 저작권 문제, 환경적 문제, 할루시네이션 문제, 과대평가된 AI에 대한 적절한 걸러내기 없는 의존...문제라고 생각해요
저작권 문제와 환경적 문제는 AI 기술발달에 쏠리는 눈을 조금 나눠 제도적 해결법에 대해 좀더 이야기하고 제대로 법제화했으면 합니다
AI에 대한 의존도나 할루시네이션을 주의하지 않는 신뢰는 미디어 리터러시에서 이어진 문제라고 생각합니다
하지만...어떤 신경다양인들에게는 이런 많은 문제들에 죄책감을 가지면서도 쓸 수밖에 없을 때가 있다는 걸 알아주었으면 좋겠어요
저작권 문제와 환경적 문제는 AI 기술발달에 쏠리는 눈을 조금 나눠 제도적 해결법에 대해 좀더 이야기하고 제대로 법제화했으면 합니다
AI에 대한 의존도나 할루시네이션을 주의하지 않는 신뢰는 미디어 리터러시에서 이어진 문제라고 생각합니다
하지만...어떤 신경다양인들에게는 이런 많은 문제들에 죄책감을 가지면서도 쓸 수밖에 없을 때가 있다는 걸 알아주었으면 좋겠어요
x.com/seo__tj_/sta...
사실상 AI 교과서 사업은 나락으로 가는게 확정적이구만...
개인적으로 AI의 할루시네이션 현상을 어찌하지 못하는한 AI 교과서가 가치가 있을런지 잘 모르겠단 생각이라.
사실상 AI 교과서 사업은 나락으로 가는게 확정적이구만...
개인적으로 AI의 할루시네이션 현상을 어찌하지 못하는한 AI 교과서가 가치가 있을런지 잘 모르겠단 생각이라.
뭉볼 on X: "AI한테 이재명을 물어봤더니 "사형입니다"라고 나왔대. 김문수랑 이준석은 잘 모른다면서 위키피디아 내용 주더니. 해당 업체에서는 독립운동가 이재명에 대한 정보만 저장되어있다면서 해명했다는데 사형을 선고 받았다고 해야지, 사형입니다? 애들 교과서에 그게 맞아? https://t.co/EdgCsUaXs4" / X
AI한테 이재명을 물어봤더니 "사형입니다"라고 나왔대. 김문수랑 이준석은 잘 모른다면서 위키피디아 내용 주더니. 해당 업체에서는 독립운동가 이재명에 대한 정보만 저장되어있다면서 해명했다는데 사형을 선고 받았다고 해야지, 사형입니다? 애들 교과서에 그게 맞아? https://t.co/EdgCsUaXs4
x.com
June 12, 2025 at 4:44 AM
x.com/seo__tj_/sta...
사실상 AI 교과서 사업은 나락으로 가는게 확정적이구만...
개인적으로 AI의 할루시네이션 현상을 어찌하지 못하는한 AI 교과서가 가치가 있을런지 잘 모르겠단 생각이라.
사실상 AI 교과서 사업은 나락으로 가는게 확정적이구만...
개인적으로 AI의 할루시네이션 현상을 어찌하지 못하는한 AI 교과서가 가치가 있을런지 잘 모르겠단 생각이라.
그리고 모두가 동의하는 의견은, 아직도 지피티는 할루시네이션이 심해서 그가 내 교육자가 될 수 없고, 지피티를 유용하게 이용하려면 애초에 사용자의 지식이 출중해야만 한다는 것... 나중에는 할루시네이션 없는 AI도 나올 수 있을지 모르겠는데 생각보다 시간이 걸리지 않을까 싶고 그렇다고 해도 진위여부는 결국 인간이 체크해야하지 않을까 싶다
June 7, 2025 at 5:16 AM
그리고 모두가 동의하는 의견은, 아직도 지피티는 할루시네이션이 심해서 그가 내 교육자가 될 수 없고, 지피티를 유용하게 이용하려면 애초에 사용자의 지식이 출중해야만 한다는 것... 나중에는 할루시네이션 없는 AI도 나올 수 있을지 모르겠는데 생각보다 시간이 걸리지 않을까 싶고 그렇다고 해도 진위여부는 결국 인간이 체크해야하지 않을까 싶다
AI가 발달해 구글링의 시대가 끝났다고 하는데... 최신 모델 조차도 여전히 술술 할루시네이션을 일으킨다. 여전히 부지런히 움직여서 나쁠건 하나도 없다. 여담으로 99년 6월 30일에는 시랜드 수련원 화재 참사가 있었다. 희생자와 그 가족에게 애도를 표한다.
May 25, 2025 at 11:31 AM
AI가 발달해 구글링의 시대가 끝났다고 하는데... 최신 모델 조차도 여전히 술술 할루시네이션을 일으킨다. 여전히 부지런히 움직여서 나쁠건 하나도 없다. 여담으로 99년 6월 30일에는 시랜드 수련원 화재 참사가 있었다. 희생자와 그 가족에게 애도를 표한다.
할루시네이션 볼 때마다 눈 희게 떠유
것봐 니가 몰 알어 함
ai 견제하는 인간
것봐 니가 몰 알어 함
ai 견제하는 인간
May 16, 2025 at 8:30 AM
할루시네이션 볼 때마다 눈 희게 떠유
것봐 니가 몰 알어 함
ai 견제하는 인간
것봐 니가 몰 알어 함
ai 견제하는 인간
기술적으로는 '저건 RAG가 아니라 멀티 모달 이쟎...'이라고도 할 수 있는데...
멀티모달은 데이터 전체를 학습데이터로 세팅을 하다보니 필연적으로 데이터 노이즈가 발생할 수 있음. 그래서 할루시네이션이 발생하기도 하고.
RAG는 저런 데이터를 의미론적으로 청크화 하고, 그걸 다시 벡터화 하여 단어간의 유사성을 기반으로 최적의 데이터만을 AI에게 판단용 정보로 전달하는것이다 보니, 데이터를 얼마나 잘 정리했는가에 따라 정확도가 엄청나게 차이가 발생함. 괜히 할루시네이션 대책이라고 요즘 이 기술이 뜨는게 아님.
멀티모달은 데이터 전체를 학습데이터로 세팅을 하다보니 필연적으로 데이터 노이즈가 발생할 수 있음. 그래서 할루시네이션이 발생하기도 하고.
RAG는 저런 데이터를 의미론적으로 청크화 하고, 그걸 다시 벡터화 하여 단어간의 유사성을 기반으로 최적의 데이터만을 AI에게 판단용 정보로 전달하는것이다 보니, 데이터를 얼마나 잘 정리했는가에 따라 정확도가 엄청나게 차이가 발생함. 괜히 할루시네이션 대책이라고 요즘 이 기술이 뜨는게 아님.
April 25, 2025 at 9:41 AM
기술적으로는 '저건 RAG가 아니라 멀티 모달 이쟎...'이라고도 할 수 있는데...
멀티모달은 데이터 전체를 학습데이터로 세팅을 하다보니 필연적으로 데이터 노이즈가 발생할 수 있음. 그래서 할루시네이션이 발생하기도 하고.
RAG는 저런 데이터를 의미론적으로 청크화 하고, 그걸 다시 벡터화 하여 단어간의 유사성을 기반으로 최적의 데이터만을 AI에게 판단용 정보로 전달하는것이다 보니, 데이터를 얼마나 잘 정리했는가에 따라 정확도가 엄청나게 차이가 발생함. 괜히 할루시네이션 대책이라고 요즘 이 기술이 뜨는게 아님.
멀티모달은 데이터 전체를 학습데이터로 세팅을 하다보니 필연적으로 데이터 노이즈가 발생할 수 있음. 그래서 할루시네이션이 발생하기도 하고.
RAG는 저런 데이터를 의미론적으로 청크화 하고, 그걸 다시 벡터화 하여 단어간의 유사성을 기반으로 최적의 데이터만을 AI에게 판단용 정보로 전달하는것이다 보니, 데이터를 얼마나 잘 정리했는가에 따라 정확도가 엄청나게 차이가 발생함. 괜히 할루시네이션 대책이라고 요즘 이 기술이 뜨는게 아님.
AI 할루시네이션, 사람도 마찬가지 아닌가? m.clien.net/service/boar...
개소리가 이런 개소리가 없다... 아니 AI를 쓰는데 사람처럼 문제 있으면 왜 비싸게 AI를 쓰냐?
개소리가 이런 개소리가 없다... 아니 AI를 쓰는데 사람처럼 문제 있으면 왜 비싸게 AI를 쓰냐?
AI 할루시네이션, 사람도 마찬가지 아닌가? : 클리앙
AI 시스템의 '할루시네이션'—즉, 그럴듯하게 들리지만 사실과 다른 정보를 생성하는 현상—에 대한 비판이 계속되고 있다. 하지만 인간의 기억과 인지 과정을 살펴보면, 우리 역시 유사한 방식으로 현실을 왜곡하고 재구성한다는 사실을 발견할 수 있다. 거짓말에도 의도를 가지고 하는 거짓말이 있고, 거짓인지 모르고 하는 거짓말도 있을 것이다. AI는 후자의 경우이...
m.clien.net
April 25, 2025 at 9:15 AM
AI 할루시네이션, 사람도 마찬가지 아닌가? m.clien.net/service/boar...
개소리가 이런 개소리가 없다... 아니 AI를 쓰는데 사람처럼 문제 있으면 왜 비싸게 AI를 쓰냐?
개소리가 이런 개소리가 없다... 아니 AI를 쓰는데 사람처럼 문제 있으면 왜 비싸게 AI를 쓰냐?
이전에도 이것에 관해서 이야기 한 적이 있는데,
현재의 LLM모델은 실제로 '사고하는' AI라기엔 아직 갈길이 멀다.
할루시네이션, 데이터 노이즈등도 고려해야 하고, 정확도에 문제가 많아서.
동일한 문서를 요약해도 10번 요약을 하면 10번 다 미묘하게 다르거나, 심지어 아예 말도 안되는 요약이 나오는 경우도 있음.
현재의 AI는 어느정도 정확도가 떨어져도 되는 작업에는 추천하지만(추후 인간의 검수 작업이 반드시 들어가야 함) 반드시 정확한 데이터가 필요할 경우에는 그 데이터를 확실하게 평가 할 능력이 있을 때만 쓰는 게 좋음.
현재의 LLM모델은 실제로 '사고하는' AI라기엔 아직 갈길이 멀다.
할루시네이션, 데이터 노이즈등도 고려해야 하고, 정확도에 문제가 많아서.
동일한 문서를 요약해도 10번 요약을 하면 10번 다 미묘하게 다르거나, 심지어 아예 말도 안되는 요약이 나오는 경우도 있음.
현재의 AI는 어느정도 정확도가 떨어져도 되는 작업에는 추천하지만(추후 인간의 검수 작업이 반드시 들어가야 함) 반드시 정확한 데이터가 필요할 경우에는 그 데이터를 확실하게 평가 할 능력이 있을 때만 쓰는 게 좋음.
논문 요약 전용 소프트웨어 사달라는 요청
검토해 보겠다고 하고 그자린 넘겼으나 아무래도 거절해야겠다 싶네
논문을 AI가 요약해 주면 그 논문을 니가 읽은 거임 아니면 AI가 읽은 거임..?
이라는 질문이 당연히 떠오름 ㅋㅋㅋㅋ
검토해 보겠다고 하고 그자린 넘겼으나 아무래도 거절해야겠다 싶네
논문을 AI가 요약해 주면 그 논문을 니가 읽은 거임 아니면 AI가 읽은 거임..?
이라는 질문이 당연히 떠오름 ㅋㅋㅋㅋ
April 25, 2025 at 9:03 AM
이전에도 이것에 관해서 이야기 한 적이 있는데,
현재의 LLM모델은 실제로 '사고하는' AI라기엔 아직 갈길이 멀다.
할루시네이션, 데이터 노이즈등도 고려해야 하고, 정확도에 문제가 많아서.
동일한 문서를 요약해도 10번 요약을 하면 10번 다 미묘하게 다르거나, 심지어 아예 말도 안되는 요약이 나오는 경우도 있음.
현재의 AI는 어느정도 정확도가 떨어져도 되는 작업에는 추천하지만(추후 인간의 검수 작업이 반드시 들어가야 함) 반드시 정확한 데이터가 필요할 경우에는 그 데이터를 확실하게 평가 할 능력이 있을 때만 쓰는 게 좋음.
현재의 LLM모델은 실제로 '사고하는' AI라기엔 아직 갈길이 멀다.
할루시네이션, 데이터 노이즈등도 고려해야 하고, 정확도에 문제가 많아서.
동일한 문서를 요약해도 10번 요약을 하면 10번 다 미묘하게 다르거나, 심지어 아예 말도 안되는 요약이 나오는 경우도 있음.
현재의 AI는 어느정도 정확도가 떨어져도 되는 작업에는 추천하지만(추후 인간의 검수 작업이 반드시 들어가야 함) 반드시 정확한 데이터가 필요할 경우에는 그 데이터를 확실하게 평가 할 능력이 있을 때만 쓰는 게 좋음.
😱 AI가 만들어내는 가짜 정보의 충격적인 실체! 최신 AI 모델의 환각률이 무려 48%라니... 기술 발전의 그늘에 숨겨진 위험을 함께 알아봐요 #AI할루시네이션 #인공지능위험 #기술신뢰성 #오픈AI
https://issuepicker.com/news/24003/
https://issuepicker.com/news/24003/
April 23, 2025 at 2:11 AM
😱 AI가 만들어내는 가짜 정보의 충격적인 실체! 최신 AI 모델의 환각률이 무려 48%라니... 기술 발전의 그늘에 숨겨진 위험을 함께 알아봐요 #AI할루시네이션 #인공지능위험 #기술신뢰성 #오픈AI
https://issuepicker.com/news/24003/
https://issuepicker.com/news/24003/
RAG(Retrieval-augmented generation)가 쓸만 해 지면서 좋아진 건...AI가 참고로 할 데이터가 명확하게 정리가 되고, 그 양이 충분하기만 하면 할루시네이션 방지를 위해 아무리 기능제한을 걸어도 정밀도가 유지된다는 점일 것 같다.
한두 단계 더 발전하게 된다면 필요 최소한의 데이터만으로 AI가 정형화되지 않은 데이터를 참고하여 생성하는 정밀도도 올라가겠지만...아직은 사람손을 좀 타긴 해야 하는 것도 사실. 아무리 청크, 벡터화를 한다고 해도 애초에 얼마나 데이터를 잘 분류하는가가 아직은 중요하니...
한두 단계 더 발전하게 된다면 필요 최소한의 데이터만으로 AI가 정형화되지 않은 데이터를 참고하여 생성하는 정밀도도 올라가겠지만...아직은 사람손을 좀 타긴 해야 하는 것도 사실. 아무리 청크, 벡터화를 한다고 해도 애초에 얼마나 데이터를 잘 분류하는가가 아직은 중요하니...
April 14, 2025 at 12:35 AM
RAG(Retrieval-augmented generation)가 쓸만 해 지면서 좋아진 건...AI가 참고로 할 데이터가 명확하게 정리가 되고, 그 양이 충분하기만 하면 할루시네이션 방지를 위해 아무리 기능제한을 걸어도 정밀도가 유지된다는 점일 것 같다.
한두 단계 더 발전하게 된다면 필요 최소한의 데이터만으로 AI가 정형화되지 않은 데이터를 참고하여 생성하는 정밀도도 올라가겠지만...아직은 사람손을 좀 타긴 해야 하는 것도 사실. 아무리 청크, 벡터화를 한다고 해도 애초에 얼마나 데이터를 잘 분류하는가가 아직은 중요하니...
한두 단계 더 발전하게 된다면 필요 최소한의 데이터만으로 AI가 정형화되지 않은 데이터를 참고하여 생성하는 정밀도도 올라가겠지만...아직은 사람손을 좀 타긴 해야 하는 것도 사실. 아무리 청크, 벡터화를 한다고 해도 애초에 얼마나 데이터를 잘 분류하는가가 아직은 중요하니...
하...notebookLM,이거 진짜 쓰면 쓸 수록 진짜 물건이네.
구글 AI가 진짜 간만에 제대로 쓸 만 한 거 내놓은 듯.
이미지 생성 AI도 기술며닝 아니라 아이디어 면에서 뛰어난 걸 만들더니, AI도 성능이 아니라 편의성과 할루시네이션 대책으로 이런 걸 만드네...
진짜 기발한 사람들이 많기는 한 듯.
구글 AI가 진짜 간만에 제대로 쓸 만 한 거 내놓은 듯.
이미지 생성 AI도 기술며닝 아니라 아이디어 면에서 뛰어난 걸 만들더니, AI도 성능이 아니라 편의성과 할루시네이션 대책으로 이런 걸 만드네...
진짜 기발한 사람들이 많기는 한 듯.
로그인 - Google 계정
notebooklm.google.com
March 11, 2025 at 6:52 AM
하...notebookLM,이거 진짜 쓰면 쓸 수록 진짜 물건이네.
구글 AI가 진짜 간만에 제대로 쓸 만 한 거 내놓은 듯.
이미지 생성 AI도 기술며닝 아니라 아이디어 면에서 뛰어난 걸 만들더니, AI도 성능이 아니라 편의성과 할루시네이션 대책으로 이런 걸 만드네...
진짜 기발한 사람들이 많기는 한 듯.
구글 AI가 진짜 간만에 제대로 쓸 만 한 거 내놓은 듯.
이미지 생성 AI도 기술며닝 아니라 아이디어 면에서 뛰어난 걸 만들더니, AI도 성능이 아니라 편의성과 할루시네이션 대책으로 이런 걸 만드네...
진짜 기발한 사람들이 많기는 한 듯.
AI를 이용해서 내가 앞으로 학습해야 하는 내용의 목차와 내용, 그리고 해당 학습에 필요한 링크를 탖아달라고 한 결과...
목차 : O
내용 : O
링크 : X
링크는...30개 정도를 제안 했는데, 실제로 페이지가 존재하는 건 꼴랑 4개였다. 할루시네이션이 상상 이상으로 심각하다는 의미.
RAG시스템을 구축하는 등의 노력으로 이 할루시네이션 현상을 제어하지 않으면 한동안 AI에 대한 신뢰도는 점점 더 떨어질 것 같다.
준비되기 전에 너무 공격적으로 마케팅을 한 결과, 제품에 대한 신뢰도가 급격하게 떨어지는 거지 뭐.
목차 : O
내용 : O
링크 : X
링크는...30개 정도를 제안 했는데, 실제로 페이지가 존재하는 건 꼴랑 4개였다. 할루시네이션이 상상 이상으로 심각하다는 의미.
RAG시스템을 구축하는 등의 노력으로 이 할루시네이션 현상을 제어하지 않으면 한동안 AI에 대한 신뢰도는 점점 더 떨어질 것 같다.
준비되기 전에 너무 공격적으로 마케팅을 한 결과, 제품에 대한 신뢰도가 급격하게 떨어지는 거지 뭐.
February 25, 2025 at 1:58 AM
AI를 이용해서 내가 앞으로 학습해야 하는 내용의 목차와 내용, 그리고 해당 학습에 필요한 링크를 탖아달라고 한 결과...
목차 : O
내용 : O
링크 : X
링크는...30개 정도를 제안 했는데, 실제로 페이지가 존재하는 건 꼴랑 4개였다. 할루시네이션이 상상 이상으로 심각하다는 의미.
RAG시스템을 구축하는 등의 노력으로 이 할루시네이션 현상을 제어하지 않으면 한동안 AI에 대한 신뢰도는 점점 더 떨어질 것 같다.
준비되기 전에 너무 공격적으로 마케팅을 한 결과, 제품에 대한 신뢰도가 급격하게 떨어지는 거지 뭐.
목차 : O
내용 : O
링크 : X
링크는...30개 정도를 제안 했는데, 실제로 페이지가 존재하는 건 꼴랑 4개였다. 할루시네이션이 상상 이상으로 심각하다는 의미.
RAG시스템을 구축하는 등의 노력으로 이 할루시네이션 현상을 제어하지 않으면 한동안 AI에 대한 신뢰도는 점점 더 떨어질 것 같다.
준비되기 전에 너무 공격적으로 마케팅을 한 결과, 제품에 대한 신뢰도가 급격하게 떨어지는 거지 뭐.
나는 주로 ai를 구글링 대신으로 쓰는데, 이렇게 모아온 데이터도 2차 검증이 필요함 헛소리 틀린소리를 너무 진짜인 것처럼 털어놔서 (할루시네이션)
January 12, 2025 at 3:37 AM
나는 주로 ai를 구글링 대신으로 쓰는데, 이렇게 모아온 데이터도 2차 검증이 필요함 헛소리 틀린소리를 너무 진짜인 것처럼 털어놔서 (할루시네이션)
RT> AI에 관해서 이전에도 이야기 했지만...
현재의 LLM은 '말하는 척 하는 무언가'지 '사고하는 무언가'가 아닙니다.
사람처럼 절차적으로 사고 해서 답변을 하는 게 아니다 보니 정확한 답변을 위한 학습 인풋 데이터가 없으면 헛소리(할루시네이션)나 거짓말도 아무렇지 않게 합니다.
아...이쪽이 더 인간스럽긴 하네요.
그래서 AI가 저지른 문제에 대한 책임을 누가 져야 하는지에 대한 논의가 아직도 일어나는 것 입니다. 현 시점의 AI는 책임을 질 수 있을 정도로 발전한 건 아닙니다.
현재의 LLM은 '말하는 척 하는 무언가'지 '사고하는 무언가'가 아닙니다.
사람처럼 절차적으로 사고 해서 답변을 하는 게 아니다 보니 정확한 답변을 위한 학습 인풋 데이터가 없으면 헛소리(할루시네이션)나 거짓말도 아무렇지 않게 합니다.
아...이쪽이 더 인간스럽긴 하네요.
그래서 AI가 저지른 문제에 대한 책임을 누가 져야 하는지에 대한 논의가 아직도 일어나는 것 입니다. 현 시점의 AI는 책임을 질 수 있을 정도로 발전한 건 아닙니다.
December 9, 2024 at 11:50 PM
RT> AI에 관해서 이전에도 이야기 했지만...
현재의 LLM은 '말하는 척 하는 무언가'지 '사고하는 무언가'가 아닙니다.
사람처럼 절차적으로 사고 해서 답변을 하는 게 아니다 보니 정확한 답변을 위한 학습 인풋 데이터가 없으면 헛소리(할루시네이션)나 거짓말도 아무렇지 않게 합니다.
아...이쪽이 더 인간스럽긴 하네요.
그래서 AI가 저지른 문제에 대한 책임을 누가 져야 하는지에 대한 논의가 아직도 일어나는 것 입니다. 현 시점의 AI는 책임을 질 수 있을 정도로 발전한 건 아닙니다.
현재의 LLM은 '말하는 척 하는 무언가'지 '사고하는 무언가'가 아닙니다.
사람처럼 절차적으로 사고 해서 답변을 하는 게 아니다 보니 정확한 답변을 위한 학습 인풋 데이터가 없으면 헛소리(할루시네이션)나 거짓말도 아무렇지 않게 합니다.
아...이쪽이 더 인간스럽긴 하네요.
그래서 AI가 저지른 문제에 대한 책임을 누가 져야 하는지에 대한 논의가 아직도 일어나는 것 입니다. 현 시점의 AI는 책임을 질 수 있을 정도로 발전한 건 아닙니다.
AI가 창의적이란 소리는 자꾸 왜나오는지 모르겠네 열화카피와 할루시네이션 파티인데
October 7, 2024 at 12:13 AM
AI가 창의적이란 소리는 자꾸 왜나오는지 모르겠네 열화카피와 할루시네이션 파티인데
AI의 할루시네이션 관련해서 뭔가 학회 발표라도 하면 좋을 것 같은데...
August 3, 2024 at 3:47 AM
AI의 할루시네이션 관련해서 뭔가 학회 발표라도 하면 좋을 것 같은데...
애기들 말문트이고 엄마 뱃속에 있던 때 기억하는거 흥미롭고 잼있다 ㅋㅋㅋㅋㅋ AI의 할루시네이션 같은걸까 싶다가도, 너무 많은 어머니들의 증언이 있음 ㅋㅋ 그냥, 뇌가 변화하기 전 너무 어린 그 때는 기억하는게 아닐까 싶은.
July 31, 2024 at 12:49 AM
애기들 말문트이고 엄마 뱃속에 있던 때 기억하는거 흥미롭고 잼있다 ㅋㅋㅋㅋㅋ AI의 할루시네이션 같은걸까 싶다가도, 너무 많은 어머니들의 증언이 있음 ㅋㅋ 그냥, 뇌가 변화하기 전 너무 어린 그 때는 기억하는게 아닐까 싶은.