Published On Aug 28, 2024
Odkryj potęgę lokalnych modeli AI! Uruchom je na swoim laptopie lub serwerze.
🔔 Subskrybuj i włącz powiadomienia - Twoja droga do praktycznego ML zaczyna się od jednego kliknięcia: / @dataworkshop
👍 Zostaw like, bo więcej lajków = więcej praktycznych treści dla Ciebie!
💬 Co o tym myślisz? Zostaw komentarz! Masz pytanie? Zadaj je - chętnie odpowiem.
🤝 Poznajmy się lepiej! Zaproś mnie do swojej sieci na LinkedIn: / vladimiralekseichenko
🔊 Zainicjuj rozmowę o ML w firmie, polecając ten podcast. Zainspiruj zespół do wdrażania ML!
Partnerem podcastu jest DataWorkshop.
Chcesz wykorzystać potencjał ChatGPT i innych dużych modeli językowych (LLM) w swoim biznesie lub prywatnie, ale martwisz się o bezpieczeństwo danych? A może chcesz użyć modelu LLM do analizy prywatnych danych, które wolisz nie ujawniać (np. wyciągów z Twojego konta bankowego)? Załóżmy, że chcesz lepiej zarządzać swoim budżetem domowym, więc pobierasz wszystkie swoje transakcje i chcesz je kategoryzować. Oczywiście, można to zrobić całkowicie ręcznie, ale jest to czasochłonne i żmudne – jest spora szansa, że zrezygnujesz już w pierwszym miesiącu. Co wtedy? Można to zautomatyzować, ale zrozumiałe, że nie chciałbyś wysyłać takich danych do ChatGPT, prawda?
Chcesz więcej? Zajrzyj do moich kursów online i ucz się ML i analizy danych w praktyce!
👉 DS/ML od podstaw - https://bit.ly/47pDLuA
👉 Python - https://bit.ly/4e33QSW
👉 Statystyka - https://bit.ly/3Xpg1T0
👉 SQL - https://bit.ly/4e4TfXq
👉 Time Series - https://bit.ly/47IyChH
👉 NLP - https://dataworkshop.eu/pl/nlp
🔥 Instrukcja jak uruchomić lokalnie Bielik v2: https://www.loom.com/share/c5367f48cb...
🔑 Dowiesz się:
Jakie są zalety i wady korzystania z ChatGPT przez stronę internetową vs. API OpenAI lub chmury Azure.
Czym są modele lokalne, self-hosted, open source i offline oraz jakie dają możliwości.
Jakie narzędzia ułatwiają uruchamianie i dostosowywanie lokalnych modeli, np. Ollama, LM Studio, Jan.ai, llama.cpp, OpenWebUI.
Jak lokalne modele językowe wpływają na bezpieczeństwo i prywatność danych.
Jak wykorzystać lokalne modele do transkrypcji audio, analizy obrazu i innych zadań biznesowych.
Jakie są wyzwania i ograniczenia związane z korzystaniem z lokalnych modeli.
🔗 Wspomniane narzędzia
Ollama: https://ollama.com
LM Studio: https://lmstudio.ai
Jan.ai: https://jan.ai
OpenWebUI: https://openwebui.com
llama.cpp: https://github.com/ggerganov/llama.cpp
whisper.cpp: https://github.com/ggerganov/whisper.cpp
💬 Podziel się w komentarzach swoimi doświadczeniami z lokalnymi modelami AI. Jakie widzisz zastosowania w swoim biznesie?
🎧 Słuchaj BM wygodnie na Spotify, Apple Podcasts lub Google Podcasts:
📌 https://open.spotify.com/show/3ZUaHom...
📌 https://podcasts.apple.com/us/podcast...
📌 • Biznes Myśli
#llm #ai #machinelearning #llama #datascience #genai #biznesmysli
🎙️ W tym odcinku:
0:32 - Wprowadzenie do świata LLM i ich biznesowego potencjału
5:48 - Publiczny ChatGPT vs bezpieczeństwo danych firmowych
11:46 - Rewolucja open source: modele Llama dorównują komercyjnym rozwiązaniom
17:15 - Ollama i LM Studio: narzędzia do lokalnego uruchamiania AI
24:51 - Jan.ai i trend małych modeli językowych
29:32 - Korzyści z lokalnych modeli AI: zgodność z GDPR i EU AI Act
35:35 - Whisper CPP: lokalna transkrypcja audio bez kompromisów
44:44 - Kontrola nad modelami AI: klucz do sukcesu w biznesie
49:08 - Phi 3.5 od Microsoft: mały model, wielkie możliwości