Завьялов Алексей. Технология SEQ-MPI. Скалярное произведение векторов. Вариант 9 #35
Merged
allnes merged 25 commits intolearning-process:masterfrom Dec 10, 2025
Merged
Conversation
Codecov Report❌ Patch coverage is
Additional details and impacted files@@ Coverage Diff @@
## master #35 +/- ##
==========================================
+ Coverage 94.03% 94.30% +0.26%
==========================================
Files 15 17 +2
Lines 486 544 +58
Branches 181 205 +24
==========================================
+ Hits 457 513 +56
- Partials 29 31 +2 ☔ View full report in Codecov by Sentry. 🚀 New features to boost your workflow:
|
aobolensk
approved these changes
Nov 23, 2025
This comment was marked as outdated.
This comment was marked as outdated.
This comment was marked as outdated.
This comment was marked as outdated.
This comment was marked as outdated.
This comment was marked as outdated.
This comment was marked as outdated.
This comment was marked as outdated.
allnes
reviewed
Nov 24, 2025
allnes
reviewed
Nov 24, 2025
Contributor
|
This pull request is stale for 2 weeks and is going to be closed in a week |
allnes
approved these changes
Dec 10, 2025
AzotEye
pushed a commit
to AzotEye/ppc-2025-processes-informatics
that referenced
this pull request
Dec 14, 2025
…. Вариант 9 (learning-process#35) ## Описание <!-- Пожалуйста, предоставьте подробное описание вашей реализации, включая: - основные детали решения (описание выбранного алгоритма) - применение технологии параллелизма (если применимо) --> Была сделана задача параллелизма на примере задачи вычисления скалярного произведения векторов. - **Задача**: Скалярное произведение векторов - **Вариант**: 9 - **Технология**: SEQ, MPI - **Описание**: SEQ: последовательно проходим по двум векторам, на каждой итерации прибавляя к результату произведение соответствующих координат. MPI: Каждый процесс вычисляет свою часть от итоговой суммы. Для этого исходные векторы делятся на `n` равных частей, где `n` - число процессов, и корневой процесс рассылает остальным соответствующие части с помощью функции `MPI_Scatterv()`. В случае, если векторы поровну разделить не получилось, и остался остаток от деления `remainder`, первым `remainder` процессам нужно будет отослать на 1 слагаемое больше. В конце все локальные результаты суммируются с помощью функции `MPI_Allreduce()`. Отчёт содержит описание системы, на которой проводились эксперименты, результаты экспериментов и вывод. --- ## Чек-лист <!-- Пожалуйста, убедитесь, что следующие пункты выполнены **до** отправки pull request'а и запроса его ревью: --> - [x] **Статус CI**: Все CI-задачи (сборка, тесты, генерация отчёта) успешно проходят на моей ветке в моем форке - [x] **Директория и именование задачи**: Я создал директорию с именем `<фамилия>_<первая_буква_имени>_<короткое_название_задачи>` - [x] **Полное описание задачи**: Я предоставил полное описание задачи в теле pull request - [x] **clang-format**: Мои изменения успешно проходят `clang-format` локально в моем форке (нет ошибок форматирования) - [x] **clang-tidy**: Мои изменения успешно проходят `clang-tidy` локально в моем форке (нет предупреждений/ошибок) - [x] **Функциональные тесты**: Все функциональные тесты успешно проходят локально на моей машине - [x] **Тесты производительности**: Все тесты производительности успешно проходят локально на моей машине - [x] **Ветка**: Я работаю в ветке, названной точно так же, как директория моей задачи (например, `nesterov_a_vector_sum`), а не в `master` - [x] **Правдивое содержание**: Я подтверждаю, что все сведения, указанные в этом pull request, являются точными и достоверными <!-- ПРИМЕЧАНИЕ: Ложные сведения в этом чек-листе могут привести к отклонению PR и получению нулевого балла за соответствующую задачу. -->
AleksndrSakharov
pushed a commit
to AleksndrSakharov/ppc-2025-processes-informatics
that referenced
this pull request
Dec 16, 2025
…. Вариант 9 (learning-process#35) ## Описание <!-- Пожалуйста, предоставьте подробное описание вашей реализации, включая: - основные детали решения (описание выбранного алгоритма) - применение технологии параллелизма (если применимо) --> Была сделана задача параллелизма на примере задачи вычисления скалярного произведения векторов. - **Задача**: Скалярное произведение векторов - **Вариант**: 9 - **Технология**: SEQ, MPI - **Описание**: SEQ: последовательно проходим по двум векторам, на каждой итерации прибавляя к результату произведение соответствующих координат. MPI: Каждый процесс вычисляет свою часть от итоговой суммы. Для этого исходные векторы делятся на `n` равных частей, где `n` - число процессов, и корневой процесс рассылает остальным соответствующие части с помощью функции `MPI_Scatterv()`. В случае, если векторы поровну разделить не получилось, и остался остаток от деления `remainder`, первым `remainder` процессам нужно будет отослать на 1 слагаемое больше. В конце все локальные результаты суммируются с помощью функции `MPI_Allreduce()`. Отчёт содержит описание системы, на которой проводились эксперименты, результаты экспериментов и вывод. --- ## Чек-лист <!-- Пожалуйста, убедитесь, что следующие пункты выполнены **до** отправки pull request'а и запроса его ревью: --> - [x] **Статус CI**: Все CI-задачи (сборка, тесты, генерация отчёта) успешно проходят на моей ветке в моем форке - [x] **Директория и именование задачи**: Я создал директорию с именем `<фамилия>_<первая_буква_имени>_<короткое_название_задачи>` - [x] **Полное описание задачи**: Я предоставил полное описание задачи в теле pull request - [x] **clang-format**: Мои изменения успешно проходят `clang-format` локально в моем форке (нет ошибок форматирования) - [x] **clang-tidy**: Мои изменения успешно проходят `clang-tidy` локально в моем форке (нет предупреждений/ошибок) - [x] **Функциональные тесты**: Все функциональные тесты успешно проходят локально на моей машине - [x] **Тесты производительности**: Все тесты производительности успешно проходят локально на моей машине - [x] **Ветка**: Я работаю в ветке, названной точно так же, как директория моей задачи (например, `nesterov_a_vector_sum`), а не в `master` - [x] **Правдивое содержание**: Я подтверждаю, что все сведения, указанные в этом pull request, являются точными и достоверными <!-- ПРИМЕЧАНИЕ: Ложные сведения в этом чек-листе могут привести к отклонению PR и получению нулевого балла за соответствующую задачу. -->
This file contains hidden or bidirectional Unicode text that may be interpreted or compiled differently than what appears below. To review, open the file in an editor that reveals hidden Unicode characters.
Learn more about bidirectional Unicode characters
Sign up for free
to join this conversation on GitHub.
Already have an account?
Sign in to comment
Add this suggestion to a batch that can be applied as a single commit.This suggestion is invalid because no changes were made to the code.Suggestions cannot be applied while the pull request is closed.Suggestions cannot be applied while viewing a subset of changes.Only one suggestion per line can be applied in a batch.Add this suggestion to a batch that can be applied as a single commit.Applying suggestions on deleted lines is not supported.You must change the existing code in this line in order to create a valid suggestion.Outdated suggestions cannot be applied.This suggestion has been applied or marked resolved.Suggestions cannot be applied from pending reviews.Suggestions cannot be applied on multi-line comments.Suggestions cannot be applied while the pull request is queued to merge.Suggestion cannot be applied right now. Please check back later.
Описание
Была сделана задача параллелизма на примере задачи вычисления скалярного произведения векторов.
SEQ: последовательно проходим по двум векторам, на каждой итерации прибавляя к результату произведение соответствующих координат.
MPI: Каждый процесс вычисляет свою часть от итоговой суммы. Для этого исходные векторы делятся на
nравных частей, гдеn- число процессов, и корневой процесс рассылает остальным соответствующие части с помощью функцииMPI_Scatterv(). В случае, если векторы поровну разделить не получилось, и остался остаток от деленияremainder, первымremainderпроцессам нужно будет отослать на 1 слагаемое больше. В конце все локальные результаты суммируются с помощью функцииMPI_Allreduce().Отчёт содержит описание системы, на которой проводились эксперименты, результаты экспериментов и вывод.
Чек-лист
<фамилия>_<первая_буква_имени>_<короткое_название_задачи>clang-formatлокально в моем форке (нет ошибок форматирования)clang-tidyлокально в моем форке (нет предупреждений/ошибок)nesterov_a_vector_sum), а не вmaster