После исправления проблемы исключите её из списка. Удалите шаблон, если устранены все недостатки.
Автоматическое распараллеливание — оптимизация программы компилятором, состоящая в автоматическом её преобразовании в форму, работающую на параллельной вычислительной системе, например, на SMP или NUMA машине. Целью автоматического распараллеливания является освобождение программиста от трудоемкого и подверженного ошибкам процесса ручного распараллеливания. Несмотря на то, что качество автоматического распараллеливания улучшалось последние годы, полное распараллеливание последовательных программ остается слишком сложной задачей, требующей сложнейших видов анализа программ.
Автоматический параллелизатор обычно фокусируется на таких управляющих конструкциях, как циклы, обрабатывающие массивы, поскольку, в общем случае, большая часть выполнения программы проходит внутри каких-то циклов. Распараллеливающий компилятор пытается разделить цикл на части так, чтобы его отдельные итерации могли исполняться на разных вычислительных узлах одновременно.
Стоит ли распараллеливать цикл?[1] Ответ на этот вопрос требует надежной оценки (моделирования) работы программы и учёта свойств параллельной системы.
Сложности
Автоматическое распараллеливание сложно для компиляторов по причинам:
Анализ зависимостей сложен для кода, использующего косвенную адресацию, указатели, рекурсию, вызовы функций[1], особенно вызовы по косвенности (например, виртуальные функции заранее неизвестного класса).
Циклы могут иметь неизвестное заранее либо сложно варьирующееся количество итераций.[1] Из-за этого усложняется выбор циклов, требующих распараллеливания.
Доступ к глобальным ресурсам тяжело координировать в терминах выделения памяти, ввода-вывода, разделяемых переменных.
Из-за сложности полного автоматического распараллеливания существует несколько подходов для его упрощения:
Дать программистам возможность добавлять к программе подсказки компилятору, чтобы влиять на процесс распараллеливания (либо чтобы упростить анализы, пометив указатели как непересекающиеся (restrict[1]), либо указав «горячие» циклы). Среди решений, требующих достаточно подробные инструкции для компилятора, можно указать High Performance Fortran для систем с распределенной памятью и OpenMP для систем с общей памятью.
Создать интерактивную систему компиляции, в работе которой принимал бы участие человек. Такие системы созданы в рамках подпроекта «SUIF Explorer», в компиляторах Polaris и ParaWise (среда CAPTools).
Многие ранние распараллеливающие компиляторы работали с программами, написанными на Фортране, из-за его более строгих ограничений на пересечение указателей (aliasing) по сравнению с Си. Кроме того, на Фортране написано большое количество программ вычислительной математики, требующих больших ресурсов для своей работы. Примеры компиляторов:
Jon Eyolfson.Lecture 08 - Automatic Parallelization. ECE 459: Programming for Performance (англ.) (PDF). University of Waterloo (20 января 2012). Дата обращения: 6 марта 2023.