Skip to content

Кутергин Антон. Технология SEQ-MPI. Нахождение наиболее близких соседних элементов вектора. Вариант 7#101

Merged
aobolensk merged 19 commits intolearning-process:masterfrom
petikantra2014:kutergin_closest_pair
Dec 14, 2025
Merged

Кутергин Антон. Технология SEQ-MPI. Нахождение наиболее близких соседних элементов вектора. Вариант 7#101
aobolensk merged 19 commits intolearning-process:masterfrom
petikantra2014:kutergin_closest_pair

Conversation

@petikantra2014
Copy link
Copy Markdown
Contributor

@petikantra2014 petikantra2014 commented Nov 24, 2025

  • Задача: Нахождение наиболее близких соседних элементов вектора

  • Вариант: Вариант 7

  • Технология: SEQ-MPI

  • Описание : На вход подается вектор v, нужно найти такой индекс i, что велечина |v[i] - v[i+1]| минимальна среди всех пар элемента
    SEQ: Последовательно просматривает пары v[i], v[i+1], сравнивает разности и возвращает индекс максимума
    MPI: Вектор разбивается на MPI процессы, корректно обрабатывая границы между процессами, чтобы последнему числу этого процесса и первому следующего процесса также образуют пару. Каждый ищет свой локальный минимум среди всех своих соседних пар. Возвращаем глобальный индекс пары с помощью MPI_Reduce

  • Статус CI: Все CI-задачи (сборка, тесты, генерация отчёта) успешно проходят на моей ветке в моем форке

  • Директория и именование задачи: Я создал директорию с именем <фамилия>_<первая_буква_имени>_<короткое_название_задачи>

  • Полное описание задачи: Я предоставил полное описание задачи в теле pull request

  • clang-format: Мои изменения успешно проходят clang-format локально в моем форке (нет ошибок форматирования)

  • clang-tidy: Мои изменения успешно проходят clang-tidy локально в моем форке (нет предупреждений/ошибок)

  • Функциональные тесты: Все функциональные тесты успешно проходят локально на моей машине

  • Тесты производительности: Все тесты производительности успешно проходят локально на моей машине

  • Ветка: Я работаю в ветке, названной точно так же, как директория моей задачи (например, nesterov_a_vector_sum), а не в master

  • Правдивое содержание: Я подтверждаю, что все сведения, указанные в этом pull request, являются точными и достоверными

@codecov-commenter
Copy link
Copy Markdown

codecov-commenter commented Nov 24, 2025

Codecov Report

❌ Patch coverage is 93.90244% with 5 lines in your changes missing coverage. Please review.
✅ Project coverage is 96.84%. Comparing base (92b24d3) to head (71fa6b5).
⚠️ Report is 29 commits behind head on master.

Files with missing lines Patch % Lines
tasks/kutergin_a_closest_pair/mpi/src/ops_mpi.cpp 91.52% 2 Missing and 3 partials ⚠️
Additional details and impacted files
@@            Coverage Diff             @@
##           master     #101      +/-   ##
==========================================
+ Coverage   94.03%   96.84%   +2.81%     
==========================================
  Files          15       73      +58     
  Lines         486     2444    +1958     
  Branches      181      948     +767     
==========================================
+ Hits          457     2367    +1910     
- Misses          0       10      +10     
- Partials       29       67      +38     

☔ View full report in Codecov by Sentry.
📢 Have feedback on the report? Share it here.

🚀 New features to boost your workflow:
  • ❄️ Test Analytics: Detect flaky tests, report on failures, and find test suite problems.

Comment thread tasks/kutergin_a_closest_pair/report.md Outdated
Comment on lines +39 to +41
| Размер данных | MPI версия (сек) | SEQ версия (сек) |
|---------------|------------------------|-------------------------|
| 100,000,000 | 0.2043553312 | 0.1970105648 |
Copy link
Copy Markdown
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Could you please run on 2, 4 and 8 processes at least


std::vector<int> local_data(end - start);
if (rank == 0) {
std::copy(v.begin() + start, v.begin() + end, local_data.begin());
Copy link
Copy Markdown
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

I think this copy will ruin your performance even though it is not really needed

Comment thread tasks/kutergin_a_closest_pair/report.md Outdated

## 8. Conclusions

Я перешёл с Docker на чистый Windows, и MPI версия стала быстрее SEQ. Возможно это связано с тем, что Docker потреблял много ресурсов процессора и это сказывалось на результатах, а также возможно повлияло то, что linux компилятор лучше оптимизирован. Время выполнения SEQ версии колебается, но я думаю это из-за фоновых процессов windows, которые влияют на результат, но впринцепе время не особо сильно отличается. Время MPI версии при 8 процессах больше чем другие, скорее всего это связано с тем, что у меня 4 физических ядра и на каждое ядро приходится 2 процесса, что привело к снижению эффективности из-за переключений между процессами. Вывод: MPI версия оказалась быстрее SEQ на OS Windows, хоть и не особо сильно, возможно ускорение будет больше если взять больше данных и больше ядер с процессами.
Copy link
Copy Markdown
Member

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

That does not look like a proper conclusion for the report

@aobolensk aobolensk merged commit 0dbdf93 into learning-process:master Dec 14, 2025
41 checks passed
AleksndrSakharov pushed a commit to AleksndrSakharov/ppc-2025-processes-informatics that referenced this pull request Dec 16, 2025
…них элементов вектора. Вариант 7 (learning-process#101)

- **Задача**: Нахождение наиболее близких соседних элементов вектора
- **Вариант**: Вариант 7
- **Технология**: SEQ-MPI
- **Описание** : На вход подается вектор v, нужно найти такой индекс i,
что велечина |v[i] - v[i+1]| минимальна среди всех пар элемента
SEQ: Последовательно просматривает пары v[i], v[i+1], сравнивает
разности и возвращает индекс максимума
MPI: Вектор разбивается на MPI процессы, корректно обрабатывая границы
между процессами, чтобы последнему числу этого процесса и первому
следующего процесса также образуют пару. Каждый ищет свой локальный
минимум среди всех своих соседних пар. Возвращаем глобальный индекс пары
с помощью MPI_Reduce

- [x] **Статус CI**: Все CI-задачи (сборка, тесты, генерация отчёта)
успешно проходят на моей ветке в моем форке
- [x] **Директория и именование задачи**: Я создал директорию с именем
`<фамилия>_<первая_буква_имени>_<короткое_название_задачи>`
- [x] **Полное описание задачи**: Я предоставил полное описание задачи в
теле pull request
- [x] **clang-format**: Мои изменения успешно проходят `clang-format`
локально в моем форке (нет ошибок форматирования)
- [x] **clang-tidy**: Мои изменения успешно проходят `clang-tidy`
локально в моем форке (нет предупреждений/ошибок)
- [x] **Функциональные тесты**: Все функциональные тесты успешно
проходят локально на моей машине
- [x] **Тесты производительности**: Все тесты производительности успешно
проходят локально на моей машине
- [x] **Ветка**: Я работаю в ветке, названной точно так же, как
директория моей задачи (например, `nesterov_a_vector_sum`), а не в
`master`
- [x] **Правдивое содержание**: Я подтверждаю, что все сведения,
указанные в этом pull request, являются точными и достоверными
Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment

Projects

None yet

Development

Successfully merging this pull request may close these issues.

4 participants