AWS Amplify에서의 Flutter

AWS Amplify에서의 Flutter

AWS Amplify 및 Flutter 지원

AWS Amplify 플랫폼에서 Flutter 전면 스택 프로젝트를 생성하는 방법에 대한 빠른 시작 가이드입니다.

AWS Lambda 성능: JavaScript vs Python vs Golang

AWS Lambda 성능: JavaScript vs Python vs Golang

AWS 람다에서 사용할 언어는 무엇인가요?

AWS로의 배포를 위해 람다 함수를 여러 언어로 작성할 수 있습니다.
자바스크립트, 파이썬, Golang으로 작성된 (거의 비어 있는) 함수의 성능을 비교해 보겠습니다.

Ollama를 사용한 Perplexica 자체 호스팅

Ollama를 사용한 Perplexica 자체 호스팅

로컬에서 코파일럿 스타일 서비스를 실행하나요? 간단합니다!

정말 흥미롭습니다! 이제 Copilot이나 perplexity.ai에 모든 세상에 당신이 원하는 것을 말하는 대신, 자신의 PC 또는 랩탑에 유사한 서비스를 호스팅할 수 있습니다!

LLM 프론트엔드

LLM 프론트엔드

선택할 수 있는 항목은 많지 않지만 여전히...

LLM을 처음 실험할 때 그들의 UI는 활발한 개발 중이었고, 지금은 그 중 일부가 정말 잘 되어 있습니다.

Gemma2 대 Qwen2 대 Mistral Nemo 대...

Gemma2 대 Qwen2 대 Mistral Nemo 대...

논리적 오류 탐지 테스트

최근 몇몇 새로운 LLM이 출시되면서 흥미로운 시대가 되었습니다.
이제 그들의 성능을 논리적 오류를 감지하는 데 어떻게 작동하는지 테스트해 보겠습니다.

LLM을 위한 효과적인 프롬프트 작성

LLM을 위한 효과적인 프롬프트 작성

일부 실험을 필요로 하지만

아직도 LLM이 당신이 원하는 것을 이해하려고 애를 쓰지 않도록 하기 위해 효과적인 프롬프트를 작성하는 데 사용되는 일반적인 접근 방법이 몇 가지 있습니다.

Floccus와 북마크 동기화

Floccus와 북마크 동기화

노트북과 브라우저 간 북마크를 동기화하려고 하시나요?

다양한 도구를 사용해보았고, 그 중에서도 floccus를 가장 좋아하게 되었습니다.

파이썬 체크시트

파이썬 체크시트

자주 사용되는 파이썬 코드 조각

가끔은 필요하지만 바로 찾기 어려운 경우가 있습니다.
그래서 모두 여기에 모아두었습니다.

LLM 요약 능력 비교

LLM 요약 능력 비교

8개의 llama3 (Meta+) 및 5개의 phi3 (Microsoft) LLM 버전

다양한 파라미터 수와 양자화 방식을 사용한 모델들이 어떻게 동작하는지 테스트해보았습니다.

다른 위치로 Ollama 모델 이동

다른 위치로 Ollama 모델 이동

Ollama LLM 모델 파일은 많은 저장 공간을 차지합니다.

ollama 설치 후에는 즉시 ollama를 재구성하여 새 위치에 저장하는 것이 좋습니다.
이렇게 하면 새 모델을 끌어다 놓을 때 이전 위치에 다운로드되지 않습니다.