Черепанов (09 August 2024 - 18:29) писал:
Alone_Stranger, попробуйте начать с алгебры и математического анализа. Сначала будет трудно, а потом даже интересно.
Попробуйте жить под одним аккаунтом: "
Сначала будет трудно, а потом даже интересно." (с) тот, кому ОЧЕНЬ много позволяют....
Черепанов (09 August 2024 - 19:14) писал:
Если взять два корпуса на разных языках (предположим, тексты на английском и тексты на немецком), обучить Модель им вместе, то окажется удивительная вещь - она сможет переводить с одного языка на другой, несмотря на то, что у нее в обучающей выборке нет словарей и разговорников, а переводить ее вообще не учили.
Контексты и смыслы? Не смешите мои тапочки! Ваши тупые матрицы вероятностей просто сравнивают вероятности слов во взаимных порядках на разных языках.
Когда (скорее ЕСЛИ) Манускрипт Войнича (например) разгадают - тогда можно будет говорить о
проблесках понимания.
А то ишь, взяли два близких языка - типа демонстрация "удивительных вещей". Бред! Это "удивительно" только для шарлатанов, надувающих очередные пузыри "доткомов"!
Черепанов (10 August 2024 - 13:49) писал:
На этом принципе создан алгоритм Wav2Vec2 — он позволяет переводить нашу речь в текст. Алгоритм работает намного лучше многих альтернатив, так как работает напрямую с аудио дорожками, не пытаясь их сначала конвертировать в текст для обработки. Вместо этого, Wav2Vec2 сам находит важные характеристики звука (тон, звуки, паузы и тп), после чего распознает речь.
Перефразирую: "алгоритм" позволяет переводить речь в текст. Он "лучше" альтернатив, так как переводит речь в текст, "
не пытаясь их сначала конвертировать в текст". ЧТО? Это ваши автоматические говорилки писали? Связность речи так и прёт со всех дыр!