Yann LeCun про ограничения всех LLM. Чуда AGI не будет. (35 мин, вместо 3 часов)
🌟 Интервью с Yann LeCun, главным научным сотрудником Meta и лауреатом премии Тьюринга, раскрывает ограничения современных языковых моделей и его видение развития искусственного интеллекта через создание систем, способных понимать физический мир и планировать действия. Пишу полезное в блоге Telegram: https://t.me/blog_hanzo
Ссылки на оригинальное видео в первом комментарии 👇👇👇 👨🏻💻 Кто я? Я создаю автоматизации для бизнеса через чат-боты в telegram и whatsapp. Активно использую нейросети в своих проектах. Мой путь это 10 лет инженерного опыта, диплом MBA, управление процессами на заводе IKEA и 3 года бизнес-анализа в 15 компаниях. Ключевые моменты Ограничения современных языковых моделей в понимании физического мира Различие между предсказанием слов и реальным пониманием контекста Архитектура JEPA: новый подход к обучению ИИ через представления Важность самообучения и невозможность достичь интеллекта только через язык Иерархическое планирование как ключевой компонент искусственного интеллекта От авторегрессивного предсказания к энергетическим моделям мышления Почему идеально беспристрастный ИИ невозможен и опасен для демократии Открытые модели как противовес монополии на информацию и знания Постепенная эволюция ИИ против мифа о "внезапном сверхинтеллекте" Будущее взаимодействия человека и ИИ: усиление возможностей, а не замена Discover how large language models and LLM agents work! Simple explanations, real-world examples, and their applications in education, medicine, finance, and more. A podcast for anyone curious about the future of artificial intelligence. Odkryj, jak działają duże modele językowe i agenci LLM! Proste wyjaśnienia, przykłady z życia wzięte i ich zastosowania w edukacji, medycynie, finansach i nie tylko. Podcast dla każdego, kto jest ciekawy przyszłości sztucznej inteligencji. Foundation of LLMs Reasoning Planning, tool use LLM agent infrastructure Retrieval-augmented generation Multimodal agents, Human-agent interaction, personalization, alignment Multi-agent collaboration pretraining data (internet) tokenization neural network pretraining to post-training post-training data (conversations) hallucinations, tool use, knowledge, working memory #llm #chatgpt #нейросети #ai