생성AI 데모앱 – Google AI Studio

https://aistudio.google.com/apps Gemini를 활용한 생성AI 데모앱을 제공하는 페이지가 만들어짐. 간단하지만 다양한 영감?!을 얻을 수 있음. 공식 소개 페이지: Making it easier to build with the Gemini API in Google AI Studio https://developers.googleblog.com/en/making-it-easier-to-build-with-the-gemini-api-in-google-ai-studio Github: Gemini API Cookbook https://github.com/google-gemini/cookbook 바로: 간략하게 가능성을 보여주는 것 좋음. 근데 결국 API 많이 사용하라는건가…돈…ㅠㅠ

생성형AI 환상 순위: LLM Confabulation (Hallucination) Leaderboard for RAG

https://github.com/lechmazur/confabulations 해당 기사는 대규모 언어 모델(LLM)이 오해의 소지가 있는 질문에 응답할 때 얼마나 자주 존재하지 않는 답변, 즉 허구 또는 환각을 생성하는지 평가하기 위한 벤치마크에 관한 것입니다. 질문은 LLM 훈련 데이터에 아직 포함되지 않은 최근 기사를 기반으로 합니다. RAG(검색 증강 생성)를 사용할 때는 이러한 허구를 최소화하는 것이 중요합니다. 2025년 2월 10일 현재, 제공된 텍스트에 답변이 … Read more

AI 창작 인문학 플랫폼 ‘AI 크레타’ 정식 오픈

AI가 써 내려간 인문학, ‘AI 크레타’에서 만나보세요! 인공지능(AI)이 창작한 인문학 콘텐츠를 한곳에 모은 특별한 플랫폼, **’AI 크레타'(AICreta.com)**가 3월 26일 정식으로 문을 열었습니다! 이곳은 AI가 직접 쓴 철학, 역사, 문학, 예술 작품들을 누구나 자유롭게 감상할 수 있는 디지털 인문학 아카이브입니다. 왜 AI가 인문학을? ‘AI 크레타’를 운영하는 서치마스터의 전병국 대표는 “생성형 AI의 창작 능력이 어디까지 도달했는지 보여주고 … Read more

딥시크의 성공 뒤의 문과생

문과 출신들로 구성된 이 팀은 AI 모델 훈련과 딥시크가 생성하는 콘텐츠의 품질을 끌어올리는 역할을 담당한다. 역사·문화·과학 등과 관련된 데이터를 일목요연하게 분류해 AI가 더 효율적으로 학습하고 답을 낼 수 있게 한다. 관련 학문에 대한 배경 지식을 갖고, 마치 도서관에서 책을 분류하듯 데이터를 정리하는 것이다. 딥시크 한 전직 직원은 최근 한 온라인 세미나에서 “그들은 방대한 지식들을 모아 … Read more

LLM(Large Language Model) to LWM(Large World Model)?

주간동아. LLM 넘어 LWM 시대 온다: 현실과 디지털 경계 초월… 메타버스도 부활 신호. 2025.03.04. 지난 2년간 챗GPT가 생성형 인공지능(AI) 시장을 주도한 기술의 근원은 거대언어모델(Large Language Model·LLM)이었다. 인간 언어를 학습한 AI가 언어로 답을 내놓는 것. 이제는 LLM을 넘어 거대세계모델(Large World Model·LWM) 시대가 오고 있다. 젠슨 황 엔비디아 최고경영자(CEO)는 1월 CES(국제전자제품박람회) 2025에서 “로봇의 챗GPT 모멘트(변곡점)가 온다”며 물리 … Read more

무료 Gemini Code Assist : github, VS, JetBrains…

https://blog.google/technology/developers/gemini-code-assist-free 이제 전 세계 개발자들이 무료로 AI 코딩 보조 도구를 이용 가능 Gemini 2.0 기반 개발 지원 AI 코딩 지원, 개발자가 원하는 곳에서 무료로 제공 GitHub 코드 리뷰: 맞춤형, 실행 가능한 피드백 제공 오늘 부터 바로 사용 가능! 출처: https://news.hada.io/topic?id=19445

[논문]Don’t Do RAG – cache-augmented generation (CAG) / 캐싱 기술로 돌파하라!

Don’t Do RAG: When Cache-Augmented Generation is All You Need for Knowledge Tasks https://doi.org/10.48550/arXiv.2412.15605 – 외부 지식 자원을 활용하는 RAG보다 긴 컨텍스트 LLM과 캐싱 기술을 활용하는 cache-augmented generation (CAG)가 더 좋음. – 컨텍스트 창은 점차 증가하고 있으며, 현재는 보통 10만 토큰은 넘고, 제미나이 1.5 Pro는 200만 토큰임. – 물론 긴 프롬프트는 모델을 느리게 하고, 비용을 … Read more

[논문]Titans: attention을 개선하는 새로운 아키텍처?!

Titans: Learning to Memorize at Test TimeAli Behrouz, Peilin Zhong, Vahab Mirrokni https://doi.org/10.48550/arXiv.2501.00663 기존에 짧은 문장/문맥에 특화되어 있는 attention의 한계 돌파 가능?! – 트랜스포머 구조 + 순환신경망(RNN) / 장기 메모리(long-term memory) 도입 – Core(단기 기억, attention) + Long-term Memory(장기 기억) + Persistent Memory(영구 기억) – Surprise Metric(새로운 지식) + adaptive forgetting(망각) – PyTorch + JAX … Read more

Ai agents 개념도

The Abacus.AI Blog. AI Agents – Build and Host LLM Apps At Scale. 2023.08.31. https://blog.abacus.ai/blog/2023/08/31/supercharge-productivity-accomplish-10x-more-with-ai-agents 바로: 시간이 좀 지난 것이지만, AI Agents를 설명하는 가장 괜찮은?! 개념도 인듯?! 다만, 1번 데이터에 대해서는 보다 발전?! 시키는 것이?!