szymon
banner
skszymon.bsky.social
szymon
@skszymon.bsky.social
Sztuczna inteligencja, analiza danych i zastosowanie
Sport - Real Madryt x F1
Gram we wszystko co aktualnie wychodzi.
𝗧𝘄𝗲𝗲𝘁 𝟭𝟰/𝟭𝟰
Co myślisz o tej koncepcji?
Czy AI uczące się przez doświadczenie to przyszłość, czy może wolisz kontrolę przez "przeprogramowywanie"?
Jak widzisz praktyczne zastosowania takiego podejścia w swojej branży?
#AI #MachineLearning #ContinualLearning #ArtificialIntelligence
August 27, 2025 at 10:00 PM
𝗧𝘄𝗲𝗲𝘁 𝟭𝟯/𝟭𝟰
Oczywiście, to dopiero początek. System ma swoje ograniczenia i wymaga jeszcze pracy.
Ale kierunek jest jasny: w stronę AI, które uczy się tak, jak my - przez życie, błędy i sukcesy, a nie przez wielokrotne "formatowanie dysku".
August 27, 2025 at 10:00 PM
𝗧𝘄𝗲𝗲𝘁 𝟭𝟮/𝟭𝟰
Co mnie najbardziej fascynuje?
To nie jest kolejna inkrementalna poprawa. To fundamentalna zmiana podejścia - od "przeprogramowywania" do "uczenia się przez doświadczenie".
Jak przejście od kalkulatora do mózgu.
August 27, 2025 at 10:00 PM
𝗧𝘄𝗲𝗲𝘁 𝟭𝟭/𝟭𝟰
Dla nerdów: system wykorzystuje "Memory-based Markov Decision Process" i "Case-Based Reasoning" 🤓
Dla reszty z nas: AI ma teraz coś w rodzaju "mięśniowej pamięci" - wie, co robić, bo już to robiło wcześniej.
August 27, 2025 at 10:00 PM
𝗧𝘄𝗲𝗲𝘁 𝟭𝟬/𝟭𝟰
Najfajniejsze w tym wszystkim?
System działa w czasie rzeczywistym. Nie musisz czekać godzin czy dni na "aktualizację" - agent uczy się natychmiast z każdego doświadczenia.
To jak różnica między nauką z podręcznika a nauką przez praktykę.
August 27, 2025 at 10:00 PM
𝗧𝘄𝗲𝗲𝘁 𝟵/𝟭𝟰
Praktyczne zastosowania? 🚀
- Agenty badawcze, które stają się mądrzejsze z każdym projektem
- Asystenci, którzy pamiętają Twoje preferencje i błędy
- Systemy, które adaptują się do nowych sytuacji bez kosztownego przekwalifikowania
August 27, 2025 at 10:00 PM
𝗧𝘄𝗲𝗲𝘁 𝟴/𝟭𝟰
Ale czemu to takie przełomowe?
Dotychczas agenci AI byli jak studenci, którzy musieli zdawać egzamin z całej wiedzy za każdym razem. Teraz mogą być jak eksperci - budować wiedzę stopniowo, na podstawie doświadczenia.
August 27, 2025 at 10:00 PM
𝗧𝘄𝗲𝗲𝘁 𝟳/𝟭𝟰
Wyniki są imponujące 📊
Na trudnym benchmarku GAIA (zadania wymagające wielu kroków i narzędzi):
- 1. miejsce na zbiorze walidacyjnym (87.88%)
- 4. miejsce na zbiorze testowym (79.40%)
To znacznie lepiej niż metody wymagające "przeprogramowania".
August 27, 2025 at 10:00 PM
𝗧𝘄𝗲𝗲𝘁 𝟲/𝟭𝟰
Najciekawsze? System uczy się z każdym zadaniem - zarówno z sukcesów, jak i porażek.
To jak prowadzenie dziennika: "Kiedy robiłem X, Y zadziałało świetnie, ale Z była katastrofą. Następnym razem spróbuję inaczej."
August 27, 2025 at 10:00 PM
𝗧𝘄𝗲𝗲𝘁 𝟱/𝟭𝟰
Technicznie rzecz biorąc, system ma dwie części:
🧠 𝗣𝗹𝗮𝗻𝗻𝗲𝗿 - myśli i planuje (jak Ty przed wykonaniem zadania)
🔧 𝗘𝘅𝗲𝗰𝘂𝘁𝗼𝗿 - wykonuje plan używając narzędzi (jak Twoje ręce)
Plus "bank pamięci" ze wszystkimi dotychczasowymi doświadczeniami.
August 27, 2025 at 10:00 PM
𝗧𝘄𝗲𝗲𝘁 𝟰/𝟭𝟰
Jak to działa w praktyce?
Wyobraź sobie, że rozwiązujesz trudny problem. Co robisz? Przypominasz sobie podobną sytuację z przeszłości, prawda?
Memento robi dokładnie to samo - szuka w swojej "pamięci" podobnych przypadków i adaptuje rozwiązania.
August 27, 2025 at 10:00 PM
𝗧𝘄𝗲𝗲𝘁 𝟯/𝟭𝟰
Badacze stworzyli system o nazwie "Memento" - jak w filmie z Leonardem DiCaprio, ale dla AI 🎬
Główna idea: zamiast zmieniać "mózg" AI, dajemy mu notatnik, w którym zapisuje doświadczenia i z nich się uczy.
August 27, 2025 at 10:00 PM
𝗧𝘄𝗲𝗲𝘁 𝟮/𝟭𝟰
Problem: Obecne agenty AI są albo sztywne (jak roboty na taśmie produkcyjnej), albo wymagają kosztownego "przeprogramowania" za każdym razem, gdy chcemy je czegoś nowego nauczyć.
To jak gdyby człowiek musiał się przerodzić, żeby nauczyć się gotować nowe danie.
August 27, 2025 at 10:00 PM
𝟱/𝟱
Kluczowe pytanie z artykułu (https://arxiv.org/abs/2507.21046v2): "Jak zapewnić, że agenci AI, ewoluując autonomicznie, pozostają bezpieczni i kontrolowani?" To ogromne wyzwanie, które wymaga współpracy. #AISafety #ResponsibleAI. Dołącz do dyskusji!
August 3, 2025 at 1:00 AM
𝟰/𝟱
Zastanawialiście się kiedyś, jak ocenić agenta AI, który ciągle się uczy? Ten artykuł (https://arxiv.org/abs/2507.21046v2) porusza wyzwania związane z ewaluacją #SelfEvolvingAgents. To nie tylko sukces w zadaniu, ale także #Adaptacyjność, #Retencja wiedzy, #Generalizacja, #Efektywność
August 3, 2025 at 1:00 AM
𝟯/𝟱
🚀 Agenci AI uczą się kodować, uczyć i dbać o zdrowie! Artykuł "A Survey of Self-Evolving Agents" (https://arxiv.org/abs/2507.21046v2) pokazuje, jak samoewoluujące systemy są wdrażane w praktyce. To nie tylko teoria – to rewolucja w #Coding, #Education! Gdzie jeszcze widzicie potencjał?
August 3, 2025 at 1:00 AM
- 𝗞𝗜𝗘𝗗𝗬 𝗲𝘄𝗼𝗹𝘂𝘂𝗷𝗲? Podczas wykonywania zadania (intra-test-time) i między zadaniami (inter-test-time). Ciągłe doskonalenie to podstawa.
- 𝗝𝗔𝗞 𝗲𝘄𝗼𝗹𝘂𝘂𝗷𝗲? Poprzez nagrody, uczenie się przez imitację i metody ewolucyjne oparte na populacji.
Koniecznie sprawdźcie!
August 3, 2025 at 1:00 AM
𝟮/𝟱
Ten artykuł (https://arxiv.org/abs/2507.21046v2) dzieli ewolucję agentów AI na 3 kluczowe wymiary:
- 𝗖𝗢 𝗲𝘄𝗼𝗹𝘂𝘂𝗷𝗲? Modele, pamięć, narzędzia, architektura! Agenci nie są już statyczni, ale dynamicznie zmieniają swoje "wnętrzności".

August 3, 2025 at 1:00 AM

12/12 Pytanie otwarte: Czy lepiej mieć wyjaśnienie które "brzmi logicznie" ale może być nieprawdziwe, czy przyznać się do ograniczeń w zrozumieniu procesów AI? Jak zapewnić rzeczywistą transparentność w systemach wysokiego ryzyka? #AITransparency #ExplainableAI
July 3, 2025 at 1:00 PM

11/12 Pełny artykuł dostępny na arXiv. Badanie podkreśla potrzebę większej ostrożności przy interpretacji wyjaśnień generowanych przez AI.
July 3, 2025 at 1:00 PM
10/12 Nie oznacza to że CoT jest bezużyteczny - nadal poprawia wydajność modeli i ułatwia komunikację człowiek-AI. Problem polega na traktowaniu go jako wystarczającego dowodu na interpretowalność bez dodatkowej weryfikacji.
July 3, 2025 at 1:00 PM
9/12 Rozwiązania proponowane przez autorów: walidacja przyczynowa (sprawdzanie czy zmiana kroków wpływa na wynik), podejścia inspirowane kognitywistyką, oraz lepszy nadzór ludzki nad procesami rozumowania AI.

July 3, 2025 at 1:00 PM
8/12 Szczególnie problematyczne w dziedzinach wysokiego ryzyka: medycyna, prawo, systemy autonomiczne. Niewierny CoT może uzasadniać rekomendację medyczną, ukrywając że model opierał się na fałszywych korelacjach w danych treningowych.

July 3, 2025 at 1:00 PM