Оптимизация в центре теории экономики. Теория оптимизации Теоретические и практические вопросы оптимизации

Параметров при заданной структуре объекта, то она называется параметрической оптимизацией . Задача выбора оптимальной структуры является структурной оптимизацией .

Стандартная математическая задача оптимизации формулируется таким образом. Среди элементов χ, образующих множества Χ, найти такой элемент χ * , который доставляет минимальное значение f(χ *) заданной функции f(χ). Для того, чтобы корректно поставить задачу оптимизации, необходимо задать:

  1. Допустимое множество - множество \mathbb{X}=\{\vec{x}|\;g_i(\vec{x})\leq 0,\;i=1,\ldots,m\} \subset \mathbb{R}^n;
  2. Целевую функцию - отображение f:\;\mathbb{X}\to\mathbb{R};
  3. Критерий поиска (max или min).

Тогда решить задачу f(x)\to \min_{\vec{x}\in\mathrm{X}} означает одно из:

  1. Показать, что \mathbb{X}=\varnothing.
  2. Показать, что целевая функция f(\vec{x}) не ограничена снизу.
  3. Найти \vec{x}^*\in\mathbb{X}:\;f(\vec{x}^*)=\min_{\vec{x}\in\mathbb{X}}f(\vec{x}).
  4. Если \nexists \vec{x}^* , то найти \inf_{\vec{x}\in\mathbb{X}}f(\vec{x}).

Если минимизируемая функция не является выпуклой , то часто ограничиваются поиском локальных минимумов и максимумов: точек x_0 таких, что всюду в некоторой их окрестности f(x)\ge f(x_0) для минимума и f(x)\le f(x_0) для максимума.

Если допустимое множество \mathbb{X}=\mathbb{R}^n, то такая задача называется задачей безусловной оптимизации , в противном случае - задачей условной оптимизации .

Классификация методов оптимизации

Общая запись задач оптимизации задаёт большое разнообразие их классов. От класса задачи зависит подбор метода (эффективность её решения). Классификацию задач определяют: целевая функция и допустимая область (задаётся системой неравенств и равенств или более сложным алгоритмом).

Методы оптимизации классифицируют в соответствии с задачами оптимизации:

  • Локальные методы: сходятся к какому-нибудь локальному экстремуму целевой функции. В случае унимодальной целевой функции, этот экстремум единственен, и будет глобальным максимумом/минимумом.
  • Глобальные методы: имеют дело с многоэкстремальными целевыми функциями. При глобальном поиске основной задачей является выявление тенденций глобального поведения целевой функции.

Существующие в настоящее время методы поиска можно разбить на три большие группы:

  1. детерминированные;
  2. случайные (стохастические);
  3. комбинированные.

По критерию размерности допустимого множества, методы оптимизации делят на методы одномерной оптимизации и методы многомерной оптимизации .

По виду целевой функции и допустимого множества, задачи оптимизации и методы их решения можно разделить на следующие классы:

  • Задачи оптимизации, в которых целевая функция f(\vec{x}) и ограничения g_i(\vec{x}),\; i=1,\ldots,m являются линейными функциями, разрешаются так называемыми методами линейного программирования .
  • В противном случае имеют дело с задачей нелинейного программирования и применяют соответствующие методы. В свою очередь из них выделяют две частные задачи:
    • если f(\vec{x}) и g_i(\vec{x}),\;i=1,\ldots,m - выпуклые функции, то такую задачу называют задачей выпуклого программирования ;
    • если \mathbb{X}\subset \mathbb{Z}, то имеют дело с задачей целочисленного (дискретного) программирования .

По требованиям к гладкости и наличию у целевой функции частных производных, их также можно разделить на:

  • прямые методы, требующие только вычислений целевой функции в точках приближений;
  • методы первого порядка : требуют вычисления первых частных производных функции;
  • методы второго порядка: требуют вычисления вторых частных производных, то есть гессиана целевой функции.

Помимо того, оптимизационные методы делятся на следующие группы:

  • аналитические методы (например, метод множителей Лагранжа и условия Каруша-Куна-Таккера);

В зависимости от природы множества X задачи математического программирования классифицируются как:

  • задачи дискретного программирования (или комбинаторной оптимизации) - если X конечно или счётно ;
  • задачи целочисленного программирования - если X является подмножеством множества целых чисел;
  • задачи нелинейного программирования, если ограничения или целевая функция содержат нелинейные функции и X является подмножеством конечномерного векторного пространства .
  • Если же все ограничения и целевая функция содержат лишь линейные функции, то это - задача линейного программирования.

Кроме того, разделами математического программирования являются параметрическое программирование , динамическое программирование и стохастическое программирование .

Математическое программирование используется при решении оптимизационных задач исследования операций .

Способ нахождения экстремума полностью определяется классом задачи. Но перед тем, как получить математическую модель, нужно выполнить 4 этапа моделирования:

  • Определение границ системы оптимизации
    • Отбрасываем те связи объекта оптимизации с внешним миром, которые не могут сильно повлиять на результат оптимизации, а, точнее, те, без которых решение упрощается
  • Выбор управляемых переменных
    • «Замораживаем» значения некоторых переменных (неуправляемые переменные). Другие оставляем принимать любые значения из области допустимых решений (управляемые переменные)
  • Определение ограничений на управляемые переменные
    • … (равенства и/или неравенства)
  • Выбор числового критерия оптимизации (например, показателя эффективности)
    • Создаём целевую функцию

История

Канторовичем совместно с М. К. Гавуриным в 1949 году разработан метод потенциалов , который применяется при решении транспортных задач . В последующих работах Канторовича, Немчинова , В. В. Новожилова , А. Л. Лурье , А. Брудно , Аганбегяна , Д. Б. Юдина , Е. Г. Гольштейна и других математиков и экономистов получили дальнейшее развитие как математическая теория линейного и нелинейного программирования , так и приложение её методов к исследованию различных экономических проблем.

Методам линейного программирования посвящено много работ зарубежных учёных. В 1941 году Ф. Л. Хитчкок поставил транспортную задачу . Основной метод решения задач линейного программирования - симплекс-метод - был опубликован в 1949 году Данцигом. Дальнейшее развитие методы линейного и нелинейного программирования получили в работах Куна (англ. ), А. Таккера (англ. ), Гасса (Saul. I. Gass), Чарнеса (Charnes A.), Била (Beale E. M.) и др.

Одновременно с развитием линейного программирования большое внимание уделялось задачам нелинейного программирования , в которых либо целевая функция , либо ограничения, либо то и другое нелинейны. В 1951 году была опубликована работа Куна и Таккера, в которой приведены необходимые и достаточные условия оптимальности для решения задач нелинейного программирования. Эта работа послужила основой для последующих исследований в этой области.

Начиная с 1955 году опубликовано много работ, посвященных квадратическому программированию (работы Била, Баранкина и Дорфмана (Dorfman R.), Франка (Frank M.) и Вольфа (Wolfe P.), Марковица и др.). В работах Денниса (Dennis J. B.), Розена (Rosen J. B.) и Зонтендейка (Zontendijk G.) разработаны градиентные методы решения задач нелинейного программирования.

В настоящее время для эффективного применения методов математического программирования и решения задач на компьютерах разработаны алгебраические языки моделирования , представителями которыми являются AMPL и LINGO .

См. также

Напишите отзыв о статье "Оптимизация (математика)"

Примечания

Литература

  • Абакаров А. Ш., Сушков Ю. А. . - Труды ФОРА, 2004.
  • Акулич И. Л. Математическое программирование в примерах и задачах: Учеб. пособие для студентов эконом. спец. вузов. - М .: Высшая школа, 1986.
  • Гилл Ф., Мюррей У., Райт М. Практическая оптимизация. Пер. с англ. - М .: Мир, 1985.
  • Гирсанов И. В. Лекции по математической теории экстремальных задач. - М .; Ижевск : НИЦ «Регулярная и хаотическая динамика», 2003. - 118 с. - ISBN 5-93972-272-5 .
  • Жиглявский А. А., Жилинкас А. Г. Методы поиска глобального экстремума. - М .: Наука, Физматлит, 1991.
  • Карманов В. Г. Математическое программирование. - Изд-во физ.-мат. литературы, 2004.
  • Корн Г., Корн Т. Справочник по математике для научных работников и инженеров. - М .: Наука, 1970. - С. 575-576.
  • Коршунов Ю. М., Коршунов Ю. М. Математические основы кибернетики. - М .: Энергоатомиздат, 1972.
  • Максимов Ю. А., Филлиповская Е. А. Алгоритмы решения задач нелинейного программирования. - М .: МИФИ, 1982.
  • Максимов Ю. А. Алгоритмы линейного и дискретного программирования. - М .: МИФИ, 1980.
  • Плотников А. Д. Математическое программирование = экспресс-курс. - 2006. - С. 171. - ISBN 985-475-186-4 .
  • Растригин Л. А. Статистические методы поиска. - М ., 1968.
  • Хемди А. Таха. Введение в исследование операций = Operations Research: An Introduction. - 8 изд. - М .: Вильямс , 2007. - С. 912. - ISBN 0-13-032374-8 .
  • Кини Р. Л., Райфа Х. Принятие решений при многих критериях: предпочтения и замещения. - М .: Радио и связь, 1981. - 560 с.
  • С.И.Зуховицкий , Л.И.Авдеева. Линейное и выпуклое программирование. - 2-е изд., перераб. и доп.. - М .: Издательство «Наука», 1967.
  • А.А. Болонкин ,. Новые методы оптимизации и их применение. Краткий конспект лекций по курсу «Теория оптимальных систем».. - М .: МВТУ им.Баумана, 1972, 220 стр. viXra.org/abs/1503.0081.

Ссылки

  • Б.П. Поляк . // Труды 14-й Байкальской школы-семинара «Методы оптимизации и их приложения». - 2008. - Т. 1 . - С. 2-20 .
  • .

Отрывок, характеризующий Оптимизация (математика)

Князь Андрей провел Пьера на свою половину, всегда в полной исправности ожидавшую его в доме его отца, и сам пошел в детскую.
– Пойдем к сестре, – сказал князь Андрей, возвратившись к Пьеру; – я еще не видал ее, она теперь прячется и сидит с своими божьими людьми. Поделом ей, она сконфузится, а ты увидишь божьих людей. C"est curieux, ma parole. [Это любопытно, честное слово.]
– Qu"est ce que c"est que [Что такое] божьи люди? – спросил Пьер
– А вот увидишь.
Княжна Марья действительно сконфузилась и покраснела пятнами, когда вошли к ней. В ее уютной комнате с лампадами перед киотами, на диване, за самоваром сидел рядом с ней молодой мальчик с длинным носом и длинными волосами, и в монашеской рясе.
На кресле, подле, сидела сморщенная, худая старушка с кротким выражением детского лица.
– Andre, pourquoi ne pas m"avoir prevenu? [Андрей, почему не предупредили меня?] – сказала она с кротким упреком, становясь перед своими странниками, как наседка перед цыплятами.
– Charmee de vous voir. Je suis tres contente de vous voir, [Очень рада вас видеть. Я так довольна, что вижу вас,] – сказала она Пьеру, в то время, как он целовал ее руку. Она знала его ребенком, и теперь дружба его с Андреем, его несчастие с женой, а главное, его доброе, простое лицо расположили ее к нему. Она смотрела на него своими прекрасными, лучистыми глазами и, казалось, говорила: «я вас очень люблю, но пожалуйста не смейтесь над моими ». Обменявшись первыми фразами приветствия, они сели.
– А, и Иванушка тут, – сказал князь Андрей, указывая улыбкой на молодого странника.
– Andre! – умоляюще сказала княжна Марья.
– Il faut que vous sachiez que c"est une femme, [Знай, что это женщина,] – сказал Андрей Пьеру.
– Andre, au nom de Dieu! [Андрей, ради Бога!] – повторила княжна Марья.
Видно было, что насмешливое отношение князя Андрея к странникам и бесполезное заступничество за них княжны Марьи были привычные, установившиеся между ними отношения.
– Mais, ma bonne amie, – сказал князь Андрей, – vous devriez au contraire m"etre reconaissante de ce que j"explique a Pierre votre intimite avec ce jeune homme… [Но, мой друг, ты должна бы быть мне благодарна, что я объясняю Пьеру твою близость к этому молодому человеку.]
– Vraiment? [Правда?] – сказал Пьер любопытно и серьезно (за что особенно ему благодарна была княжна Марья) вглядываясь через очки в лицо Иванушки, который, поняв, что речь шла о нем, хитрыми глазами оглядывал всех.
Княжна Марья совершенно напрасно смутилась за своих. Они нисколько не робели. Старушка, опустив глаза, но искоса поглядывая на вошедших, опрокинув чашку вверх дном на блюдечко и положив подле обкусанный кусочек сахара, спокойно и неподвижно сидела на своем кресле, ожидая, чтобы ей предложили еще чаю. Иванушка, попивая из блюдечка, исподлобья лукавыми, женскими глазами смотрел на молодых людей.
– Где, в Киеве была? – спросил старуху князь Андрей.
– Была, отец, – отвечала словоохотливо старуха, – на самое Рожество удостоилась у угодников сообщиться святых, небесных тайн. А теперь из Колязина, отец, благодать великая открылась…
– Что ж, Иванушка с тобой?
– Я сам по себе иду, кормилец, – стараясь говорить басом, сказал Иванушка. – Только в Юхнове с Пелагеюшкой сошлись…
Пелагеюшка перебила своего товарища; ей видно хотелось рассказать то, что она видела.
– В Колязине, отец, великая благодать открылась.
– Что ж, мощи новые? – спросил князь Андрей.
– Полно, Андрей, – сказала княжна Марья. – Не рассказывай, Пелагеюшка.
– Ни… что ты, мать, отчего не рассказывать? Я его люблю. Он добрый, Богом взысканный, он мне, благодетель, рублей дал, я помню. Как была я в Киеве и говорит мне Кирюша юродивый – истинно Божий человек, зиму и лето босой ходит. Что ходишь, говорит, не по своему месту, в Колязин иди, там икона чудотворная, матушка пресвятая Богородица открылась. Я с тех слов простилась с угодниками и пошла…
Все молчали, одна странница говорила мерным голосом, втягивая в себя воздух.
– Пришла, отец мой, мне народ и говорит: благодать великая открылась, у матушки пресвятой Богородицы миро из щечки каплет…
– Ну хорошо, хорошо, после расскажешь, – краснея сказала княжна Марья.
– Позвольте у нее спросить, – сказал Пьер. – Ты сама видела? – спросил он.
– Как же, отец, сама удостоилась. Сияние такое на лике то, как свет небесный, а из щечки у матушки так и каплет, так и каплет…
– Да ведь это обман, – наивно сказал Пьер, внимательно слушавший странницу.
– Ах, отец, что говоришь! – с ужасом сказала Пелагеюшка, за защитой обращаясь к княжне Марье.
– Это обманывают народ, – повторил он.
– Господи Иисусе Христе! – крестясь сказала странница. – Ох, не говори, отец. Так то один анарал не верил, сказал: «монахи обманывают», да как сказал, так и ослеп. И приснилось ему, что приходит к нему матушка Печерская и говорит: «уверуй мне, я тебя исцелю». Вот и стал проситься: повези да повези меня к ней. Это я тебе истинную правду говорю, сама видела. Привезли его слепого прямо к ней, подошел, упал, говорит: «исцели! отдам тебе, говорит, в чем царь жаловал». Сама видела, отец, звезда в ней так и вделана. Что ж, – прозрел! Грех говорить так. Бог накажет, – поучительно обратилась она к Пьеру.
– Как же звезда то в образе очутилась? – спросил Пьер.
– В генералы и матушку произвели? – сказал князь Aндрей улыбаясь.
Пелагеюшка вдруг побледнела и всплеснула руками.
– Отец, отец, грех тебе, у тебя сын! – заговорила она, из бледности вдруг переходя в яркую краску.
– Отец, что ты сказал такое, Бог тебя прости. – Она перекрестилась. – Господи, прости его. Матушка, что ж это?… – обратилась она к княжне Марье. Она встала и чуть не плача стала собирать свою сумочку. Ей, видно, было и страшно, и стыдно, что она пользовалась благодеяниями в доме, где могли говорить это, и жалко, что надо было теперь лишиться благодеяний этого дома.
– Ну что вам за охота? – сказала княжна Марья. – Зачем вы пришли ко мне?…
– Нет, ведь я шучу, Пелагеюшка, – сказал Пьер. – Princesse, ma parole, je n"ai pas voulu l"offenser, [Княжна, я право, не хотел обидеть ее,] я так только. Ты не думай, я пошутил, – говорил он, робко улыбаясь и желая загладить свою вину. – Ведь это я, а он так, пошутил только.
Пелагеюшка остановилась недоверчиво, но в лице Пьера была такая искренность раскаяния, и князь Андрей так кротко смотрел то на Пелагеюшку, то на Пьера, что она понемногу успокоилась.

Странница успокоилась и, наведенная опять на разговор, долго потом рассказывала про отца Амфилохия, который был такой святой жизни, что от ручки его ладоном пахло, и о том, как знакомые ей монахи в последнее ее странствие в Киев дали ей ключи от пещер, и как она, взяв с собой сухарики, двое суток провела в пещерах с угодниками. «Помолюсь одному, почитаю, пойду к другому. Сосну, опять пойду приложусь; и такая, матушка, тишина, благодать такая, что и на свет Божий выходить не хочется».
Пьер внимательно и серьезно слушал ее. Князь Андрей вышел из комнаты. И вслед за ним, оставив божьих людей допивать чай, княжна Марья повела Пьера в гостиную.
– Вы очень добры, – сказала она ему.
– Ах, я право не думал оскорбить ее, я так понимаю и высоко ценю эти чувства!
Княжна Марья молча посмотрела на него и нежно улыбнулась. – Ведь я вас давно знаю и люблю как брата, – сказала она. – Как вы нашли Андрея? – спросила она поспешно, не давая ему времени сказать что нибудь в ответ на ее ласковые слова. – Он очень беспокоит меня. Здоровье его зимой лучше, но прошлой весной рана открылась, и доктор сказал, что он должен ехать лечиться. И нравственно я очень боюсь за него. Он не такой характер как мы, женщины, чтобы выстрадать и выплакать свое горе. Он внутри себя носит его. Нынче он весел и оживлен; но это ваш приезд так подействовал на него: он редко бывает таким. Ежели бы вы могли уговорить его поехать за границу! Ему нужна деятельность, а эта ровная, тихая жизнь губит его. Другие не замечают, а я вижу.
В 10 м часу официанты бросились к крыльцу, заслышав бубенчики подъезжавшего экипажа старого князя. Князь Андрей с Пьером тоже вышли на крыльцо.
– Это кто? – спросил старый князь, вылезая из кареты и угадав Пьера.
– AI очень рад! целуй, – сказал он, узнав, кто был незнакомый молодой человек.
Старый князь был в хорошем духе и обласкал Пьера.
Перед ужином князь Андрей, вернувшись назад в кабинет отца, застал старого князя в горячем споре с Пьером.
Пьер доказывал, что придет время, когда не будет больше войны. Старый князь, подтрунивая, но не сердясь, оспаривал его.
– Кровь из жил выпусти, воды налей, тогда войны не будет. Бабьи бредни, бабьи бредни, – проговорил он, но всё таки ласково потрепал Пьера по плечу, и подошел к столу, у которого князь Андрей, видимо не желая вступать в разговор, перебирал бумаги, привезенные князем из города. Старый князь подошел к нему и стал говорить о делах.
– Предводитель, Ростов граф, половины людей не доставил. Приехал в город, вздумал на обед звать, – я ему такой обед задал… А вот просмотри эту… Ну, брат, – обратился князь Николай Андреич к сыну, хлопая по плечу Пьера, – молодец твой приятель, я его полюбил! Разжигает меня. Другой и умные речи говорит, а слушать не хочется, а он и врет да разжигает меня старика. Ну идите, идите, – сказал он, – может быть приду, за ужином вашим посижу. Опять поспорю. Мою дуру, княжну Марью полюби, – прокричал он Пьеру из двери.
Пьер теперь только, в свой приезд в Лысые Горы, оценил всю силу и прелесть своей дружбы с князем Андреем. Эта прелесть выразилась не столько в его отношениях с ним самим, сколько в отношениях со всеми родными и домашними. Пьер с старым, суровым князем и с кроткой и робкой княжной Марьей, несмотря на то, что он их почти не знал, чувствовал себя сразу старым другом. Они все уже любили его. Не только княжна Марья, подкупленная его кроткими отношениями к странницам, самым лучистым взглядом смотрела на него; но маленький, годовой князь Николай, как звал дед, улыбнулся Пьеру и пошел к нему на руки. Михаил Иваныч, m lle Bourienne с радостными улыбками смотрели на него, когда он разговаривал с старым князем.
Старый князь вышел ужинать: это было очевидно для Пьера. Он был с ним оба дня его пребывания в Лысых Горах чрезвычайно ласков, и велел ему приезжать к себе.
Когда Пьер уехал и сошлись вместе все члены семьи, его стали судить, как это всегда бывает после отъезда нового человека и, как это редко бывает, все говорили про него одно хорошее.

Возвратившись в этот раз из отпуска, Ростов в первый раз почувствовал и узнал, до какой степени сильна была его связь с Денисовым и со всем полком.
Когда Ростов подъезжал к полку, он испытывал чувство подобное тому, которое он испытывал, подъезжая к Поварскому дому. Когда он увидал первого гусара в расстегнутом мундире своего полка, когда он узнал рыжего Дементьева, увидал коновязи рыжих лошадей, когда Лаврушка радостно закричал своему барину: «Граф приехал!» и лохматый Денисов, спавший на постели, выбежал из землянки, обнял его, и офицеры сошлись к приезжему, – Ростов испытывал такое же чувство, как когда его обнимала мать, отец и сестры, и слезы радости, подступившие ему к горлу, помешали ему говорить. Полк был тоже дом, и дом неизменно милый и дорогой, как и дом родительский.
Явившись к полковому командиру, получив назначение в прежний эскадрон, сходивши на дежурство и на фуражировку, войдя во все маленькие интересы полка и почувствовав себя лишенным свободы и закованным в одну узкую неизменную рамку, Ростов испытал то же успокоение, ту же опору и то же сознание того, что он здесь дома, на своем месте, которые он чувствовал и под родительским кровом. Не было этой всей безурядицы вольного света, в котором он не находил себе места и ошибался в выборах; не было Сони, с которой надо было или не надо было объясняться. Не было возможности ехать туда или не ехать туда; не было этих 24 часов суток, которые столькими различными способами можно было употребить; не было этого бесчисленного множества людей, из которых никто не был ближе, никто не был дальше; не было этих неясных и неопределенных денежных отношений с отцом, не было напоминания об ужасном проигрыше Долохову! Тут в полку всё было ясно и просто. Весь мир был разделен на два неровные отдела. Один – наш Павлоградский полк, и другой – всё остальное. И до этого остального не было никакого дела. В полку всё было известно: кто был поручик, кто ротмистр, кто хороший, кто дурной человек, и главное, – товарищ. Маркитант верит в долг, жалованье получается в треть; выдумывать и выбирать нечего, только не делай ничего такого, что считается дурным в Павлоградском полку; а пошлют, делай то, что ясно и отчетливо, определено и приказано: и всё будет хорошо.
Вступив снова в эти определенные условия полковой жизни, Ростов испытал радость и успокоение, подобные тем, которые чувствует усталый человек, ложась на отдых. Тем отраднее была в эту кампанию эта полковая жизнь Ростову, что он, после проигрыша Долохову (поступка, которого он, несмотря на все утешения родных, не мог простить себе), решился служить не как прежде, а чтобы загладить свою вину, служить хорошо и быть вполне отличным товарищем и офицером, т. е. прекрасным человеком, что представлялось столь трудным в миру, а в полку столь возможным.
Ростов, со времени своего проигрыша, решил, что он в пять лет заплатит этот долг родителям. Ему посылалось по 10 ти тысяч в год, теперь же он решился брать только две, а остальные предоставлять родителям для уплаты долга.

Армия наша после неоднократных отступлений, наступлений и сражений при Пултуске, при Прейсиш Эйлау, сосредоточивалась около Бартенштейна. Ожидали приезда государя к армии и начала новой кампании.
Павлоградский полк, находившийся в той части армии, которая была в походе 1805 года, укомплектовываясь в России, опоздал к первым действиям кампании. Он не был ни под Пултуском, ни под Прейсиш Эйлау и во второй половине кампании, присоединившись к действующей армии, был причислен к отряду Платова.
Отряд Платова действовал независимо от армии. Несколько раз павлоградцы были частями в перестрелках с неприятелем, захватили пленных и однажды отбили даже экипажи маршала Удино. В апреле месяце павлоградцы несколько недель простояли около разоренной до тла немецкой пустой деревни, не трогаясь с места.
Была ростепель, грязь, холод, реки взломало, дороги сделались непроездны; по нескольку дней не выдавали ни лошадям ни людям провианта. Так как подвоз сделался невозможен, то люди рассыпались по заброшенным пустынным деревням отыскивать картофель, но уже и того находили мало. Всё было съедено, и все жители разбежались; те, которые оставались, были хуже нищих, и отнимать у них уж было нечего, и даже мало – жалостливые солдаты часто вместо того, чтобы пользоваться от них, отдавали им свое последнее.

Параметров при заданной структуре объекта, то она называется параметрической оптимизацией . Задача выбора оптимальной структуры является структурной оптимизацией .

Стандартная математическая задача оптимизации формулируется таким образом. Среди элементов χ, образующих множества Χ, найти такой элемент χ * , который доставляет минимальное значение f(χ *) заданной функции f(χ). Для того, чтобы корректно поставить задачу оптимизации необходимо задать:

Тогда решить задачу означает одно из:

Если минимизируемая функция не является выпуклой , то часто ограничиваются поиском локальных минимумов и максимумов: точек таких, что всюду в некоторой их окрестности для минимума и для максимума.

Если допустимое множество , то такая задача называется задачей безусловной оптимизации , в противном случае - задачей условной оптимизации .

Классификация методов оптимизации

Общая запись задач оптимизации задаёт большое разнообразие их классов. От класса задачи зависит подбор метода (эффективность её решения). Классификацию задач определяют: целевая функция и допустимая область (задаётся системой неравенств и равенств или более сложным алгоритмом).

Методы оптимизации классифицируют в соответствии с задачами оптимизации:

  • Локальные методы: сходятся к какому-нибудь локальному экстремуму целевой функции. В случае унимодальной целевой функции, этот экстремум единственен, и будет глобальным максимумом/минимумом.
  • Глобальные методы: имеют дело с многоэкстремальными целевыми функциями. При глобальном поиске основной задачей является выявление тенденций глобального поведения целевой функции.

Существующие в настоящее время методы поиска можно разбить на три большие группы:

  1. детерминированные;
  2. случайные (стохастические);
  3. комбинированные.

По критерию размерности допустимого множества, методы оптимизации делят на методы одномерной оптимизации и методы многомерной оптимизации .

По виду целевой функции и допустимого множества, задачи оптимизации и методы их решения можно разделить на следующие классы:

По требованиям к гладкости и наличию у целевой функции частных производных, их также можно разделить на:

  • прямые методы, требующие только вычислений целевой функции в точках приближений;
  • методы первого порядка : требуют вычисления первых частных производных функции;
  • методы второго порядка: требуют вычисления вторых частных производных, то есть гессиана целевой функции.

Помимо того, оптимизационные методы делятся на следующие группы:

  • аналитические методы (например, метод множителей Лагранжа и условия Каруша-Куна-Таккера);
  • графические методы.

В зависимости от природы множества X задачи математического программирования классифицируются как:

  • задачи дискретного программирования (или комбинаторной оптимизации) - если X конечно или счётно ;
  • задачи целочисленного программирования - если X является подмножеством множества целых чисел;
  • задачей нелинейного программирования, если ограничения или целевая функция содержат нелинейные функции и X является подмножеством конечномерного векторного пространства .
  • Если же все ограничения и целевая функция содержат лишь линейные функции, то это - задача линейного программирования.

Кроме того, разделами математического программирования являются параметрическое программирование , динамическое программирование и стохастическое программирование .

Математическое программирование используется при решении оптимизационных задач исследования операций .

Способ нахождения экстремума полностью определяется классом задачи. Но перед тем, как получить математическую модель, нужно выполнить 4 этапа моделирования:

  • Определение границ системы оптимизации
    • Отбрасываем те связи объекта оптимизации с внешним миром, которые не могут сильно повлиять на результат оптимизации, а, точнее, те, без которых решение упрощается
  • Выбор управляемых переменных
    • «Замораживаем» значения некоторых переменных (неуправляемые переменные). Другие оставляем принимать любые значения из области допустимых решений (управляемые переменные)
  • Определение ограничений на управляемые переменные
    • … (равенства и/или неравенства)
  • Выбор числового критерия оптимизации (например, показателя эффективности)
    • Создаём целевую функцию

История

Канторовичем совместно с М. К. Гавуриным в 1949 году разработан метод потенциалов , который применяется при решении транспортных задач . В последующих работах Канторовича, Немчинова , В. В. Новожилова , А. Л. Лурье , А. Брудно , Аганбегяна , Д. Б. Юдина, Е. Г. Гольштейна и других математиков и экономистов получили дальнейшее развитие как математическая теория линейного и нелинейного программирования , так и приложение её методов к исследованию различных экономических проблем.

Методам линейного программирования посвящено много работ зарубежных учёных. В 1941 году Ф. Л. Хитчкок поставил транспортную задачу . Основной метод решения задач линейного программирования - симплекс-метод - был опубликован в 1949 году Данцигом. Дальнейшее развитие методы линейного и нелинейного программирования получили в работах Куна (англ. ), А. Таккера (англ. ), Гасса (Saul. I. Gass), Чарнеса (Charnes A.), Била (Beale E. M.) и др.

Одновременно с развитием линейного программирования большое внимание уделялось задачам нелинейного программирования, в которых либо целевая функция , либо ограничения, либо то и другое нелинейны. В 1951 году была опубликована работа Куна и Таккера, в которой приведены необходимые и достаточные условия оптимальности для решения задач нелинейного программирования. Эта работа послужила основой для последующих исследований в этой области.

Начиная с 1955 году опубликовано много работ, посвященных квадратическому программированию (работы Била, Баранкина и Дорфмана (Dorfman R.), Франка (Frank M.) и Вольфа (Wolfe P.), Марковица и др.). В работах Денниса (Dennis J. B.), Розена (Rosen J. B.) и Зонтендейка (Zontendijk G.) разработаны градиентные методы решения задач нелинейного программирования.

В настоящее время для эффективного применения методов математического программирования и решения задач на компьютерах разработаны алгебраические языки моделирования, представителями которыми являются AMPL и LINGO.

См. также

Примечания

Литература

  • Абакаров А. Ш., Сушков Ю. А. Статистическое исследование одного алгоритма глобальной оптимизации . - Труды ФОРА, 2004.
  • Акулич И. Л. Математическое программирование в примерах и задачах: Учеб. пособие для студентов эконом. пец. вузов. - М .: Высшая школа, 1986.
  • Гилл Ф., Мюррей У., Райт М. Практическая оптимизация. Пер. с англ. - М .: Мир, 1985.
  • Гирсанов И. В. Лекции по математической теории экстремальных задач. - М .; Ижевск : НИЦ «Регулярная и хаотическая динамика», 2003. - 118 с. - ISBN 5-93972-272-5
  • Жиглявский А. А., Жилинкас А. Г. Методы поиска глобального экстремума. - М .: Наука, Физматлит, 1991.
  • Карманов В. Г. Математическое программирование. - Изд-во физ.-мат. литературы, 2004.
  • Корн Г., Корн Т. Справочник по математике для научных работников и инженеров. - М .: Наука, 1970. - С. 575-576.
  • Коршунов Ю. М., Коршунов Ю. М. Математические основы кибернетики. - М .: Энергоатомиздат, 1972.
  • Максимов Ю. А., Филлиповская Е. А. Алгоритмы решения задач нелинейного программирования. - М .: МИФИ, 1982.
  • Максимов Ю. А. Алгоритмы линейного и дискретного программирования. - М .: МИФИ, 1980.
  • Плотников А. Д. Математическое программирование = экспресс-курс. - 2006. - С. 171. - ISBN 985-475-186-4
  • Растригин Л. А. Статистические методы поиска. - М ., 1968.
  • Хемди А. Таха. Введение в исследование операций = Operations Research: An Introduction. - 8 изд. - М .: Вильямс, 2007. - С. 912. - ISBN 0-13-032374-8
  • Кини Р. Л., Райфа Х. Принятие решений при многих критериях: предпочтения и замещения. - М .: Радио и связь, 1981. - 560 с.
  • С.И.Зуховицкий , Л.И.Авдеева. Линейное и выпуклое программирование. - 2-е изд., перераб. и доп.. - М .: Издательство «Наука», 1967.

Ссылки

  • Б.П. Поляк . История математического программирования в СССР: анализ феномена // Труды 14-й Байкальской школы-семинара «Методы оптимизации и их приложения» . - 2008. - Т. 1. - С. 2-20.

Wikimedia Foundation . 2010 .

Наиболее приемлемый вариант решения, которое принимается на управленческом уровне относительно любого вопроса, принято считать оптимальным, а сам процесс его поиска - оптимизацией.

Взаимозависимость и сложность организационных, социально-экономических, технических и иных аспектов управления производством в настоящее время сводится к принятию управленческого решения, которое затрагивает большое количество разного рода факторов, тесно переплетающихся друг с другом, ввиду чего становится невозможным произвести анализ каждого отдельно с использованием традиционных аналитических методов.

Большинство факторов выступают определяющими в процессе принятия решения, и они (по своей сути) не поддаются какой-либо количественной характеристике. Также существуют и такие, которые практически неизменны. В связи с этим возникла необходимость в разработке особых методов, способных обеспечить выбор важных управленческих решений в рамках сложных организационных, экономических, технических задач (экспертные оценки, исследование операций и методы оптимизации и др.).

Методы, направленные на исследование операций, применяются в целях поиска оптимальных решений в таких областях управления, как организация процессов производства и перевозок, планирование крупномасштабного производства, материальное и техническое снабжение.

Методы оптимизации решений заключаются в исследовании посредством сравнения числовых оценок ряда факторов, анализ которых традиционными методами осуществить нельзя. Оптимальное решение - наилучшее среди возможных вариантов относительно экономической системы, а наиболее приемлемое в отношении отдельно взятых элементов системы - субоптимальное.

Сущность методов исследования операций

Как уже было упомянуто ранее, они формируют методы оптимизации управленческих решений. Их основа - математические (детерминированные), вероятностные модели, представляющие исследуемый процесс, вид деятельности или систему. Данного рода модели представляют количественную характеристику соответствующей проблемы. Они служат базой для принятия важного управленческого решения в процессе поиска оптимально приемлемого варианта.

Перечень вопросов, которые играют существенную роль для непосредственных руководителей производства и которые разрешаются в ходе использования рассматриваемых методов:

  • степень обоснованности выбранных вариантов решений;
  • насколько они лучше альтернативных;
  • степень учета определяющих факторов;
  • каков критерий оптимальности выбранных решений.

Данные методы оптимизации решений (управленческих) нацелены на поиск оптимальных решений для как можно большего количества фирм, компаний либо их подразделений. Они основаны на существующих достижениях статистических, математических и экономических дисциплин (теории игр, массового обслуживания, графиков, оптимального программирования, математической статистики).

Методы экспертных оценок

Данные методы оптимизации управленческих решений применяются, когда задача частично либо полностью не подвержена формализации, а также ее решение не может быть найдено посредством математических методов.

Экспертиза - это исследование сложных особых вопросов на этапе выработки определенного управленческого решения соответствующими лицами, которые владеют специальным багажом знаний и внушительным опытом, для получения выводов, рекомендаций, мнений, оценок. В процессе экспертного исследования применяются новейшие достижения и науки, и техники в рамках специализации эксперта.

Рассматриваемые методы оптимизации ряда управленческих решений (экспертных оценок) эффективны в решении нижеперечисленных управленческих задач в сфере производства:

  1. Изучение сложных процессов, явлений, ситуаций, систем, которые характеризуются неформализованными, качественными характеристиками.
  2. Ранжирование и определение согласно заданному критерию существенных факторов, выступающих определяющими относительно функционирования и развития производственной системы.
  3. Рассматриваемые методы оптимизации особо эффективны в области прогнозирования тенденций развития системы производства, а также ее взаимодействия с внешней средой.
  4. Повышение надежности экспертной оценки преимущественно целевых функций, которые имеют количественный и качественный характер, посредством усреднения мнений квалифицированных специалистов.

И это лишь некоторые методы оптимизации ряда управленческих решений (экспертной оценки).

Классификация рассматриваемых методов

Методы решения задач оптимизации, исходя из числа параметров, можно подразделить на:

  • Методы оптимизации одномерной.
  • Методы оптимизации многомерной.

Их еще называют "численные методы оптимизации". Если быть точным, это алгоритмы ее поиска.

В рамках применения производных методы бывают:

  • прямые методы оптимизации (нулевого порядка);
  • градиентные методы (1-го порядка);
  • методы 2-го порядка и др.

Большая часть методов многомерной оптимизации приближена к задаче второй группы методов (одномерной оптимизации).

Методы одномерной оптимизации

Любые численные методы оптимизации основаны на приближенном либо точном вычислении таких ее характеристик, как значения целевой функции и функций, которые задают допустимое множество, их производные. Так, для каждой отдельной задачи вопрос тносительно выбора характеристик для вычисления может быть решен в зависимости от существующих свойств рассматриваемой функции, имеющихся возможностей и ограничений в хранении и обработке информации.

Существуют следующие методы решения задач оптимизации (одномерной):

  • метод Фибоначчи;
  • дихотомии;
  • золотого сечения;
  • удвоения шага.

Метод Фибоначчи

Для начала необходимо установить координаты т. x на промежутке в качестве числа, равного отношению разницы (x - a) к разнице (b - a). Следовательно, a имеет относительно промежутка координату 0, а b - 1, средняя точка - ½.

Если допустить, что F0 и F1 между собой равны и принимают значение 1, F2 будет равно 2, F3 - 3, …, то Fn = Fn-1 + Fn-2. Итак, Fn - числа Фибоначчи, а поиск Фибоначчи - это оптимальная стратегия так называемого последовательного поиска максимума ввиду того, что она довольно тесно связана с ними.

В рамках оптимальной стратегии принято выбирать xn - 1 = Fn-2: Fn, xn = Fn-1: Fn. При любом из двух интервалов ( либо ), каждый из которых может выступать в качестве суженного интервала неопределенности, точка (унаследованная) относительно нового интервала будет иметь либо координаты , либо . Далее, в качестве xn - 2 принимается точка, которая имеет относительно нового промежутка одну из представленных координат. Если использовать F(xn - 2), значение функции, которое унаследовано от прежнего промежутка, становится возможным сокращение интервала неопределенности и передача в наследство одного значения функции.

На финишном шаге получится прейти к такому интервалу неопределенности, как , при этом средняя точка унаследована от предыдущего шага. В качестве x1 устанавливается точка, которая имеет относительную координату ½+ε, а окончательный интервал неопределенности будет или [½, 1] по отношению к .

На 1-м шаге длина данного интервала сократилась до Fn-1: Fn (с единицы). На финишных шагах сокращение длин соответствующих интервалов представляется числами Fn-2: Fn-1, Fn-3: Fn-2, …, F2: F3, F1: F2 (1 + 2ε). Итак, длина такого интервала, как окончательный вариант примет значение (1 + 2ε) : Fn.

Если пренебречь ε, то асимптотически 1: Fn будет равно rn, при этом n→∞, а r = (√5 - 1) : 2, что приблизительно равно 0,6180.

Стоит отметить, что асимптотически для значительных n каждый последующий шаг поиска Фибоначчи существенно сужает рассматриваемый интервал с вышеуказанном коэффициентом. Данный результат требуется сравнить с 0,5 (коэффициент сужения интервала неопределенности в рамках метода бисекции для поиска нуля функции).

Метод дихотомии

Если представить некую целевую функцию, то для начала потребуется найти ее экстремум на промежутке (a; b). Для этого ось абсцисс делится на четыре эквивалентные части, затем необходимо определить значение рассматриваемой функции в 5 точках. Далее выбирается минимум среди них. Экстремум функции должен лежать в пределах промежутка (a"; b"), который прилегает к точке минимума. Границы поиска сужаются в 2 раза. А если минимум расположен в т. a либо b, то он сужается во все четыре раза. Новый интервал также разделяется на четыре равных отрезка. В связи с тем, что значения данной функции в трех точках были определены на предыдущем этапе, далее требуется вычислить целевую функцию в двух точках.

Метод золотого сечения

Для существенных значений n координаты таких точек, как xn и xn-1 приближены к 1 - r, равное 0,3820, а r ≈ 0,6180. Толчок с данных значений весьма близок к искомой оптимальной стратегии.

Если предположить, что F(0,3820) > F(0,6180), то тогда очерчивается интервал . Однако ввиду того, что 0,6180 * 0,6180 ≈ 0,3820 ≈ xn-1, то в данной точке F уже известна. Следовательно, на каждом этапе, начиная со 2-го, необходимо только одно вычисление целевой функции, при этом каждый шаг сокращает длину рассматриваемого интервала с коэффициентом 0,6180.

В отличие от поиска Фибоначчи, в данном методе не требуется фиксация числа n еще до начала поиска.

«Золотое сечение» участка (a; b) - сечение, при котором отношение его r длины к более крупной части (a; c) идентично отношению большей части r к меньшей, то есть (a; с) к (c; b). Нетрудно догадаться, что r определяется по вышерассмотренной формуле. Следовательно, при существенных n метод Фибоначчи переходит в данный.

Метод удвоения шага

Суть - поиск направления убывания целевой функции, движение в данном направлении в случае удачного поиска с постепенно возрастающим шагом.

Сначала определяем начальную координату M0 функции F(M), минимальное значение шага h0, направление поиска. Затем определяем функцию в т. M0. Далее совершаем шаг и находим значение данной функции в данной точке.

В случае если функция меньше значения, которое было на предыдущем шаге, следует произвести следующий шаг в том же направлении, предварительно увеличив его в 2 раза. При ее значении, которое больше предыдущего, потребуется поменять направление поиска, а затем начать двигаться в выбранном направлении с шагом h0. Представленный алгоритм можно модифицировать.

Методы многомерной оптимизации

Вышеупомянутый метод нулевого порядка не берет в расчет производные минимизированной функции, ввиду чего их использование может быть эффективно в случае возникновения каких-либо трудностей с вычислением производных.

Группу методов 1-го порядка еще называют градиентными, потому что для установления направления поиска применяют градиент данной функции - вектор, составляющими которого выступают частные производные минимизированной функции по соответствующим оптимизированным параметрам.

В группе методов 2-го порядка применяются 2 производные (их использование достаточно ограничено ввиду наличия трудностей в их вычислении).

Перечень методов безусловной оптимизации

При использовании многомерного поиска без применения производных методы безусловной оптимизации следующие:

  • Хука и Дживса (осуществление 2 видов поиска - по образцу и исследующий);
  • минимизации по правильному симплексу (поиск точки минимума соответствующей функции посредством сравнения на каждой отдельной итерации ее значений в вершинах симплекса);
  • циклического координатного спуска (использование в качестве ориентиров поиска координатных векторов);
  • Розенброка (основан на применении одномерной минимизации);
  • минимизации по деформированному симплексу (модификация метода минимизации по правильному симплексу: добавление процедуры сжатия, растяжения).

В ситуации использования производных в процессе многомерного поиска выделяют метод наискорейшего спуска (наиболее фундаментальная процедура минимизации дифференцируемой функции с несколькими переменными).

Также выделяют еще такие методы, которые используют сопряженные направления (Метод Дэвидона-Флетчера-Пауэлла). Его суть - преставление направлений поиска как Dj*grad(f(y)).

Классификация математических методов оптимизации

Условно, исходя из размерности функций (целевых), они бывают:

  • с 1 переменной;
  • многомерные.

В зависимости от функции (линейная или нелинейная) существует большое количество математических методов, направленных на поиск экстремума для решения поставленной задачи.

По критерию применения производных математические методы оптимизации подразделяются на:

  • методы вычисления 1 производной целевой функции;
  • многомерные (1-я производная-векторная величина-градиент).

Исходя из эффективности вычисления, существуют:

  • методы быстрого вычисления экстремума;
  • упрощенного вычисления.

Это условная классификация рассматриваемых методов.

Оптимизация бизнес-процессов

Методы здесь могут использоваться различные, в зависимости от решаемых проблем. Принято выделять следующие методы оптимизации процессов бизнеса:

  • исключения (уменьшение уровней существующего процесса, ликвидация причин помех и входного контроля, сокращение транспортных путей);
  • упрощения (облегченное прохождение заказа, снижение комплексности продуктовой структуры, распределение работ);
  • стандартизации (использование специальных программ, методов, технологий и т. д.);
  • ускорения (параллельный инжиниринг, стимуляция, оперативное проектирование опытных образцов, автоматизация);
  • изменение (перемены в области сырья, технологий, методов работ, кадрового расположения, рабочих систем, объема заказа, порядка обработки);
  • обеспечения взаимодействия (в отношении организационных единиц, персонала, рабочей системы);
  • выделения и включения (относительно необходимых процессов, комплектующих).

Налоговая оптимизация: методы

Российское законодательство предоставляет налогоплательщику весьма богатые возможности сокращения размеров налогов, ввиду чего принято выделять такие способы, направленные на их минимизацию, как общие (классические) и специальные.

Общие методы налоговой оптимизации следующие:

  • проработка учетной политики компании с максимально возможным применением предоставленных российским законодательством возможностей (порядок списания МБП, выбор метода расчета выручки от реализации товара и др.);
  • оптимизация посредством договора (заключение льготированных сделок, четкое и грамотное использование формулировок и т. п.);
  • применение разного рода льгот, налоговых освобождений.

Вторую группу методов также могут использовать все фирмы, однако они все же имеют достаточно узкую область применения. Специальные методы оптимизации налогов следующие:

  • замены отношений (операция, которая предусматривает обременительное налогообложение, замещается другой, которая позволяет достичь аналогичную цель, но при этом использовать льготный порядок налогового обложения).
  • разделения отношений (замена лишь части хозяйственной операции);
  • отсрочки налогового платежа (перенесение момента появления объекта налогообложения на другой календарный период);
  • прямого сокращения объекта налогового обложения (избавление от многих налогооблагаемых операций либо имущества без оказания негативного влияния на основную хозяйственную деятельность компании).

Федеральное агентство по образованию ГОУ ВПО «Уральский государственный технический университет - УПИ» ПАРАМЕТРИЧЕСКАЯ ОПТИМИЗАЦИЯ РАДИОЭЛЕКТРОННЫХ СХЕМ Методические указания к лабораторной работе по курсу “Компьютерный анализ электронных схем” для студентов всех форм обучения специальности 200700 - Радиотехника Екатеринбург 2005 УДК 681,3,06:621.396.6 Составители В.В. Кийков, В.Ф. Кочкина, К.А. Вдовкин Научный редактор доц., канд. техн. наук В.И. Гадзиковский ПАРАМЕТРИЧЕСКАЯ ОПТИМИЗАЦИЯ РАДИОЭЛЕКТРОННЫХ СХЕМ: методические указания к лабораторной работе по курсу «Компьютерный анализ электронных схем” /сост. В.В. Кийко, В.Ф. Кочкина, К.А. Вдовкин. Екатеринбуг: ГОУ ВПО УГТУ-УПИ, 2005. 21с. Методические указания содержат сведения о постановке задач оптимизации, критериях оптимальности, теории поиска минимума целевой функции. Приведен обзор методов параметрической оптимизации, подробно описан метод Хука - Дживса, даны вопросы для самоконтроля. Библиогр.: 7 назв. Рис. 6. Подготовлено кафедрой “Радиоэлектроника информационных систем”.  ГОУ ВПО «Уральский государственный технический университет-УПИ», 2005 2 ОГЛАВЛЕНИЕ ЦЕЛЬ РАБОТЫ........................................................................................................... 4 1.ОБЩИЕ МЕТОДИЧЕСКИЕ УКАЗАНИЯ.......................................................... 4 2. ТЕОРИЯ ОПТИМИЗАЦИИ.................................................................................. 4 2.1. Формальная (математическая) постановка задачи оптимизации............. 4 2.2. Постановка задачи параметрической оптимизации РЭС............................ 5 2.3. Критерии оптимальности................................................................................... 7 2.4. Стратегия решения задач оптимального проектирования РЭС................ 9 2.5. Алгоритмы глобального поиска .................................................................. 9 2.5.1. Алгоритм случайного поиска....................................................................... 10 2.5.2. Монотонный алгоритм глобального поиска............................................. 10 2.5.3. Алгоритм сканирования на сетке кода Грея............................................. 10 2.6. Методы и алгоритмы локального поиска..................................................... 11 2.6.1. Прямые методы............................................................................................... 11 2.6.2. Градиентные методы оптимизации первого порядка............................. 13 2.6.3. Градиентные методы оптимизации второго порядка............................. 13 3. ОПИСАНИЕ КОМПЬЮТЕРНОЙ ПРОГРАММЫ АНАЛИЗА.................. 15 3.1. Запуск программы............................................................................................. 15 3.2. Составление задания на оптимизацию.......................................................... 15 3.3. Результаты оптимизации................................................................................. 17 4. СОДЕРЖАНИЕ ЛАБОРАТОРНОЙ РАБОТЫ............................................... 19 4.1. Порядок выполнения........................................................................................ 19 4.2. Задание к лабораторной работе....................................................................... 19 5. МЕТОДИЧЕСКИЕ УКАЗАНИЯ ПО ПОДГОТОВКЕ ИСХОДНЫХ ДАННЫХ.................................................................................................................... 20 6. СОДЕРЖАНИЕ ОТЧЕТА................................................................................ 20 7. ВОПРОСЫ ДЛЯ САМОКОНТРОЛЯ............................................................ 20 СПИСОК ЛИТЕРАТУРЫ........................................................................................... 21 3 ЦЕЛЬ РАБОТЫ Получить представление и практические навыки параметрической оптимизации РЭС при автоматизированном схемотехническом проектировании радиоэлектронной аппаратуры (РЭА). 1.ОБЩИЕ МЕТОДИЧЕСКИЕ УКАЗАНИЯ Данная работа является третей в комплексе лабораторных работ по методам расчета, анализа и оптимизации радиоэлектронных схем. В комплекс входят следующие работы: 1. Расчет радиоэлектронных схем методом узловых потенциалов. 2. Анализ электронных схем модифицированным методом узловых потенциалов. 3. Параметрическая оптимизация радиоэлектронных схем. 4. Анализ радиоэлектронных схем с помощью схемных функций. В первой и второй лабораторных работах выполнены частотный анализ, определены чувствительности коэффициента усиления по напряжению от вариаций внутренних параметров, рассчитаны переходная и импульсная характеристики при номинальных значениях параметров элементов РЭС, которые первоначально выбраны (заданы или рассчитаны) не лучшим образом. В этой работе выполняется параметрическая оптимизация проектируемой РЭС для обеспечения соответствия выходных параметров требованиям технического задания. 2. ТЕОРИЯ ОПТИМИЗАЦИИ 2.1. Формальная (математическая) постановка задачи оптимизации Оптимизацией параметров (параметрической оптимизацией) принято называть задачу расчета оптимальных номинальных значений внутренних параметров объекта проектирования. Задачи оптимизации параметров в САПР радиоэлектронной аппаратуры сводятся к задачи математического программирования extr F(X), XXД, (1) где XД = {XX0| k (X) ≥ 0, r (X) = 0, k  , r  }. Вектор X=(x1, x2, . . . . xn) называется вектором управляемых (варьируемых) параметров; F(X) - целая функция (функция качества); XД - допустимая область; X0 - пространство, в котором определена целевая функция; k(X) и r(X) функции - ограничения. 4 Словесная формулировка задачи (1): найти экстремум целевой функции F(X) в пределах области XД, ограниченной в пространстве X0 N неравенствами k(X) ≥ 0 и М равенствами r (X) = 0. Целевая функция должна быть сформулирована исходя из имеющихся представлений о качестве проектируемого объекта: её значение должно уменьшаться с улучшением качества, тогда в (1) требуется минимизация (extr есть min), или увеличиваться, тогда в (1) требуется максимизация (extr есть max). Ограничения - неравенства, имеющие вид xi > xi min или xi < xi max , называют прямыми ограничениями, где xi min и xi max - заданные константы, остальные ограничения называют функциональными. Задача поиска максимума, как правило, сводится к задаче поиска минимума путем замены F(Х) на -F(Х). Функция F(Х) имеет локальный минимум в точке Х0, если в малой окрестности этой точки F(Х) ≥ F(Х0). И функция F(Х) имеет глобальный минимум в точке Х*, если для всех Х справедливо неравенство F(Х) ≥ F(Х*). Классическая теория оптимизации подробно изложена в соответствующей литературе, например . Ниже основное внимание уделено применению теории оптимизации для поиска оптимальных решений при проектировании радиоэлектронной аппаратуры. 2.2. Постановка задачи параметрической оптимизации РЭС Решение задачи проектирования обычно связана с выбором оптимального, наилучшим образом удовлетворяющего требованиям технического задания варианта устройства из некоторого допустимого множества решений. Эффективное решение задач базируется на формальных поисковых методах оптимизации и неформальных способах принятия оптимальных проектных решений. Поэтому решение задач оптимального проектирования необходимо рассматривать не только в вычислительном аспекте, но скорее в творческом, учитывая опыт и знания инженера-схемотехника на всех этапах автоматизированного проектирования. Одной из наиболее cложных операций при решении задач оптимального проектирования является этап математической формулировки задачи, которая включает в себя выбор критерия оптимальности, определение варьируемых параметров и задание ограничений, накладываемых на варьируемые параметры . Среди задач схемотехнического проектирования, которые целесообразно решать с привлечением методов оптимизации, выделяют следующие задачи параметрического синтеза и оптимизации: - определение параметров компонентов схемы, обеспечивающих экстремальные характеристики при заданных ограничениях; - определение параметров функциональных узлов схем исходя из требований технического задания на характеристики устройства в целом; - адаптация существующих схемных решений с целью подбора параметров, удовлетворяющих новым требованиям к схеме; 5 - уточнение значений параметров компонентов схемы, полученных в результате ручного инженерного расчета. Для схем приемно-усилительной техники оптимизация ведется по отношению к таким выходным параметрам, как: - коэффициент усиления и полоса пропускания: - форма частотной характеристики; - устойчивость усилителя или активного фильтра; - время запаздывания, длительность фронта импульса. Примечание. Класс задач, связанный с определением значений параметров компонентов, при которых проектируемая схема удовлетворяет совокупности условий технического задания на разработку, принято называть параметрическим синтезом (по отношению к определяемым параметрам) или параметрической оптимизацией (по отношению к реализуемым характеристикам). В любой из перечисленных задач реализуемые характеристики проектируемого устройства являются функциями вектора варьируемых (настраиваемых) параметров, составляющих некоторое подмножество полного набора параметров компонентов схемы. Целью параметрического синтеза или оптимизации является определение вектора параметров X, обеспечивающего наилучшее соответствие характеристик устройства Y = Y(X) требованиям технического задания. Для решения этой задачи необходимо, прежде всего, выбрать формальный критерий оценки качества каждого из вариантов проектируемого устройства, который позволил бы различать их между собой и устанавливать между ними отношения предпочтения. Такая оценка может быть представлена функциональной зависимостью вида F(X) =F(Y(X)), называемой обычно критерием оптимальности, функцией качества или целевой функцией. Задача поиска параметров компонентов схемы сводится к классической задаче оптимизации - нахождения экстремума некоторой функции качества F(X) при наличии ограничений (равенств, неравенств или двухсторонних границ), накладываемых на варьируемые параметры и характеристики проектируемой схемы . Разнообразные задачи оптимизации аналоговых радиоэлектронных схем имеют общие черты, основные из которых: - многокритериальность оптимизационных задач; - отсутствие явных аналитических зависимостей выходных параметров от внутренних параметров, связь между внутренними и внешними параметрами выражается системами уравнений и оценивается количественно только через численное решение этих систем. Эти особенности обуславливают трудности постановки и решения задач оптимизации аналоговых радиоэлектронных схем. 6 2.3. Критерии оптимальности В процессе поиска оптимального решения для каждой конкретной задачи может оказаться предпочтительным определенный вид критерия оптимальности. Базовый набор критериев оптимальности, позволяющий удовлетворить разнообразные требования инженера-схемотехника к оптимизируемым характеристикам проектируемых устройств, изложен в . Так, для отыскания экстремума (минимума или максимума) показателя качества, например, как потребляемая схемой мощность, частота среза, используется само значение критерия оптимальности без преобразования: F1(X) = Y(X), (2) В задачах, требующих максимального соответствия оптимизируемой характеристики и некоторой желаемой, например, при оптимизации частотных характеристик, наиболее целесообразно использовать критерий среднего квадратического отклонения F2 ()  (Y() - Y )2 , (3) где Y* - желаемое или требуемое по техническому заданию значение характеристики, () - знак усреднения. Для характеристики, заданной дискретным набором точек, целевая функция 1 F2 (X)  N N  (Y(X , p i 1 i)  Yi)2 , * i (4) где N - число точек дискретизации независимой переменной р; Y(Х, рi) - значение оптимизируемой характеристики в i-ой точке интервала дискретизации; i - весовой коэффициент i-го значения оптимизируемой характеристики, отражающей важность i-ой точки по сравнению с другими (как правило, 0 < i > 1). Минимизация функции (3) и (4) обеспечивает близость характеристик по среднему квадратическому отклонению. Функция (4) используется при численных методах вычисления Y(Х). В некоторых задачах оптимизации необходимо обеспечить превышение или не превышение оптимизируемой характеристикой некоторого заданного уровня. Эти критерии оптимальности реализуются следующими функциями: - для обеспечения превышения заданного уровня F3 (X)  0 при Y (X)  YH* ; (Y  Y (X)) 2 приY (X)  YH* ; 7 (5) - для обеспечения непревышения заданного уровня F4 (X)  0 при Y (X)  YB* (Y (X)  YB*) 2 при Y (X)  YB* , (6) где YH*,YB* - нижняя и верхняя границы допустимой области для характеристики Y(X). Если необходимо, чтобы оптимизируемая характеристика проходила в некоторой допустимой зоне (коридоре), используют комбинацию двух предыдущих критериев оптимальности: 0приYH*  Y (X)  YB* ; F(X)  (Y (X)  YB*) 2 приY (X)  YB* , (YH*  Y (X)) 2 приY (X)  YH* . (7) В тех случаях, когда требуется реализовать лишь форму кривой, игнорируя при этом постоянное смещение по вертикали, используется критерий сдвига N F6 (X)    i (Yi *  Y (X , pi)  Yср) 2 , (8) i 1 где Yср  1 N *  (Yi  Y (X , pi)). N i 1 От вида целевой функции зависят важные характеристики вычислительного процесса и, в первую очередь, сходимость процесса оптимизации. Знаки производных целевой функции по управляемым параметрам не остаются постоянными во всей допустимой области. Для целевых функций вида (4) и (8) последнее обстоятельство ведет к их овражному характеру . Таким образом, особенностью целевых функций при решении задач схемотехнического проектирования является их овражный характер, что приводит к большим вычислительным затратам и требует особого внимания к выбору метода оптимизации. Другой особенностью целевых функций является то, что они обычно многоэкстремальные и наряду с глобальным минимумом имеются локальные минимумы. Особенность задач оптимизации электронных схем заключается и в том, что внутренние параметры не могут принимать произвольных значений. Так, величины резисторов и конденсаторов ограничены некоторыми максимальными и минимальными значениями. Кроме того, из нескольких внешних параметров обычно можно выделить один основной, по которому проводится оптимизация, а для других указать допустимые границы изменения. 8 Оптимизационная задача с ограничениями сводится к задаче оптимизации без ограничений с помощью введения штрафных функций. Целевая функция при этом приобретает вид M N r 1 k 1  (X)  Fi (X)   r ( Т (X)) 2    k ( k (X)) 2 , (9) где r , k - численные коэффициенты, учитывающие важность того или иного ограничения относительно других. Они равны нулю при удовлетворении соответствующему неравенству из (1) и принимают некоторые значения в противном случае; Fi(X) - одна из функций качеств, описанных соотношением (2) - (8). Тем самым выход за пределы допустимой области ХД приводит к увеличению минимизируемой функции цепи и промежуточные решения X j удерживаются «барьером» на границе области ХД. Высота «барьера» определяется значениями  и , которые на практике находятся в широких пределах (1-1010). Чем больше  и , тем меньше вероятность выхода за пределы допустимой области. Одновременно возрастает и крутизна склона оврага на границе, что замедляет или полностью нарушает сходимость процесса минимизации. В связи с невозможностью указать оптимальные значения  и  целесообразно начать оптимизацию с малых значений, увеличивая их затем при получении решения за пределами допустимой области. 2.4. Стратегия решения задач оптимального проектирования РЭС Задачи оптимального проектирования РЭС обладают специфическими особенностями, к которым относят многоэкстремальность и овражность функции качества, наличие ограничений на внутренние и выходные параметры проектируемого устройства, большую размерность вектора варьируемых параметров. Стратегия решения задач оптимального проектирования предусматривает применение глобальных процедур оптимизации на начальных этапах поиска и уточнение полученного глобального решения быстросходящимися в окрестности оптимальной точки локальными алгоритмами. Такая стратегия позволяет, вопервых, с достаточной надежностью и точностью определить значение глобального экстремума и, во-вторых, существенно снизить вычислительные затраты на поиск. При этом этапы глобального поиска могут выполняться с невысокой точностью, а этапы локального уточнения проводятся в области притяжения глобального экстремума, что требует значительно меньшего числа вычислений. 2.5. Алгоритмы глобального поиска Алгоритмы глобального поиска, как правило, дают достаточно грубую оценку глобального экстремума при небольших затратах вычислительных 9 ресурсов и требуют значительного увеличения числа вычислений для получения более точной оценки положения экстремума. 2.5.1. Алгоритм случайного поиска Наиболее простым, с точки зрения реализации вычислительного процесса, является алгоритм поиска глобального экстремума, основанный на зондировании допустимой области ХД последовательностью равномерно распределенных в ней точек с отбором наилучшего варианта из полученных. Качество работы алгоритма во многом определяется свойствами датчика равномерно распределенных случайных чисел, используемых для генерации векторов Х  ХД 2.5.2. Монотонный алгоритм глобального поиска Многомерная оптимизация этим алгоритмом основана на построении развертки (кривой Пеано), отображающей отрезок вещественной оси в гиперкуб допустимой области ХД. С помощью развертки осуществляется однозначное и непрерывное отображение Х(), которое для любой точки 0,1 позволяет получить точку Х  ХД. Тогда задача минимизации F(X) в области ХД эквивалентна поиску минимума * одномерной функции F(X) = F(X()). Для проведения глобальной одномерной минимизации функции F() на интервале 0,1 в подсистеме оптимизации системы схемотехнического проектирования ДИСП используется монотонная модификация алгоритма глобального поиска, реализующая для ускорения сходимости монотонное преобразование F() в виде  ()  { 1  [ 1  F ()] 2 }0 ,5 , (10) которое сохраняет расположение точки глобального экстремума, но делает функцию более гладкой. Алгоритм дает достаточно хорошую оценку глобального экстремума в пределах первых 50-100 итераций. Наилучшие результаты получаются, если число переменных не превышает 5-7. Для рассмотренного алгоритма в ряде случаев лучшие результаты удается получить при использовании преобразования пространства поиска по логарифмическому закону. Такое преобразование особенно эффективно, если границы поиска различаются на несколько порядков, что актуально в задачах оптимизации РЭА, и если экстремум находится вблизи границ области. 2.5.3. Алгоритм сканирования на сетке кода Грея Основная идея метода состоит в последовательном изменении специфической сферы поиска с характерными лучами, содержащими точки испытаний, при накоплении и обработке полученной информации. Направление сканирования осуществляется на особой сетке, задаваемой двоичным кодом 10 Грея. Сфера поиска на сетке кода Грея в рассматриваемом алгоритме отличается от традиционной (круг при числе переменных, равном 2) и имеет дополнительно к кругу характерные лучи. Лучи направлены от центра сферы к границам области ХД и тем самым как бы «просвечивают» всю область до ее границ. Рассматриваемый алгоритм имеет единственный настраиваемый параметр -чувствительность функции качества к вариациям параметров, которая используется для определения шага дискретности по каждой из переменных. 2.6. Методы и алгоритмы локального поиска Методы и алгоритмы локального поиска чаще всего отыскивают ближайший локальный экстремум, а траектория их движения сильно зависит от выбора начальной точки и характера целевой функции. 2.6.1. Прямые методы Методы нулевого порядка (прямые методы) в основе своей не имеют строгого математического обоснования и строятся на основании разумных предложений и эмпирических данных. Простейшим методом нулевого порядка является метод покоординатного спуска (Гаусса-Зейделя). На каждом шаге фиксируются все переменные, кроме одной, по которой определяется минимум целевой функции. Последовательным перебором переменных достигается оптимизация. Этот алгоритм оказывается неэффективным, если целевая функция содержит выражения типа x1x2. Для задач схемотехнического проектирования, в которых не удается получить аналитического выражения целевой функции, характерна ее сложная зависимость от компонентов схемы, и поэтому этот метод обычно неприменим. Из методов нулевого порядка в случае овражных целевых функций хорошие результаты дает метод Розенброка , в котором объединены идеи покоординатного спуска и идеи преобразования координат. Наилучшим направлением поиска экстремума является движение вдоль оврага. Поэтому после первого цикла покоординатного спуска производится поворот осей координат так, чтобы одна из них совпадала с направлением оврага Xk - Xk - n, k = n, 2n, 3n…. Метод Розенброка не дает информации о попадании в точку минимума. Поэтому счет прекращается либо после того, как уменьшение F(X) станет меньше некоторого малого числа , либо после определенного количества циклов. Метод Хука-Дживса был разработан в 1961 году, но до сих пор является весьма эффективным и оригинальным . Поиск минимума целевой функции состоит из последовательности шагов исследующего поиска вокруг базисной точки, за которой в случае успеха следует поиск по образцу. Эта процедура состоит из следующих шагов: 1. Выбрать начальную базисную точку b1 и шаг длиной hj для каждой переменной xj, j=1,2,…,n скалярной целевой функции F(X). 11 2. Вычислить F(X) в базисной точке b1 с целью получения сведений о локальном поведении функции F(X). Эти сведения будут использоваться для нахождения направления поиска по образцу, с помощью которого можно надеяться достичь большего убывания значения функции F(X). Значение функции F(X) в базисной точке b1 находиться следующим образом: a) вычисляется значение функции F(b1) в базисной точке b1; б) каждая переменная по очереди изменяется изменением шага. Таким образом, вычисляется значение F(b1 + he1), где e1- единичный вектор в направлении оси x1. Если это приводит к уменьшению значений функции, то b1 заменяется на b1 + he1. В противном случае вычисляется значение функции F(b1 - he1), и если ее значение уменьшилось, то b1 заменяется на b1 - he1. Если не один из проделанных шагов не приводит к уменьшению значений функции, то точка b1 остается неизменной и рассматривают изменения в направлении оси x2, т. е. находится значение функции F(b1 + h2e2) и т. д. Когда будут рассмотрены все n переменные, определяется новая базисная точка b2; в) если b2 = b1 , т. е. уменьшение функции F(X) не было достигнуто, то исследование продолжается вокруг той же базисной точке b1 , но с уменьшенной длиной шага. Как правило, на практике шаг уменьшают в 10 раз от начальной длины; г) если b2  b1 , то производится поиск по образцу. 3. При поиске используется информация, полученная в процессе исследования, и минимизация целевой функции завершается поиском в направлении, заданном образцом. Эта процедура производится следующим образом: а) движение осуществляется из базисной точке b2 в направлении b2 - b1 , поскольку поиск в этом направлении уже привел к уменьшению значения функции F(X). Поэтому вычисляется значения функции в точке образца P1 = b2 + (b2 - b1). В общем случае Pi = 2bi+1 - bi; б) выполняется исследование вокруг точки P1(Pi); в) если наименьшее значение на шаге 3,б меньше значения в базисной точке b2 (в общем случае bi+1), то получают новую базисную точку b3(bi+2), после чего повторяется шаг 3,а. В противном случае не производится поиск по образцу из точки b2 (bi+1). 4. Завершается процесс поиска минимума, когда длина шага (длины шагов) будет уменьшена до заданного малого значения. 12 2.6.2. Градиентные методы оптимизации первого порядка Методы отыскания экстремума, использующие производные, имеют строгое математическое обоснование . Известно, что при отыскании экстремума не существует лучшего направления, чем движение по градиенту . Из градиентных методов одним из наиболее эффективных является метод Флетчера-Пауэлла (сопряженных градиентов), являющихся разновидность метода наискорейшего спуска. Метод наискорейшего спуска состоит из следующих этапов: 1) задается начальная точка (вектор Xk k=0); 2) вычисляются F(Xk) и F(Xk); 3) производится изменение X в направлении Sk = -F(Xk) до тех пор, пока F(X) перестанет убывать; 4) полагается k = k+1, вычисляется новое значение F(Xk) и процесс повторяется с 3-го этапа. Недостаток метода заключается в том, что при овражных функциях приближение к минимуму имеет зигзагообразный характер и требует большое число итераций. Суть метода Флетчера-Пауэлла состоит в том, что при всех итерациях, начиная со второй (на первой итерации этот метод совпадает с методом наискорейшего спуска), используются предыдущие значения F(X) и F(X) для определения нового вектора направления   S k  F X k  d k S k 1 , где (11) [F (X k)]T  F (X k) d . [F (X k 1)]T  F (X k 1) Тем самым исключается зигзагообразный характер спуска и ускоряется сходимость. Этот алгоритм прост для программирования, и при этом требуется умеренный объем машинной памяти (необходимо заполнить только предыдущее направление поиска и предыдущий градиент). 2.6.3. Градиентные методы оптимизации второго порядка Итерационный метод, основанный на знании вторых производных, в общем случае известен как метод Ньютона. Пусть функция F(X) разложена в ряд Тейлора и в нем удержано три члена. Результат запишем в следующем виде: 1 F (X k  X)  F (X k)  (X)T F k  (X)T G k X 2 (12) Требуется максимизировать разность, стоящую в левой части. Это можно сделать дифференцированием (12) по Х и приравниванием результата к нулю: 13  [ F (X k  X)  F (X k)]  F k  G k X  0, X G k X  F k . Это уравнение можно решить, например, методом LU-разложения, относительно Х. Формально можно записать X  (G k) 1 F k   H k F k где Н=G-1. Направление поиска полагаем теперь совпадающим с вектором S k  X k   H k F k . (13) При переходе к минимуму матрица Гессе1 будет положительно определенной и можно использовать полный размер шага dk=1 (т.е. не нужен поиск в направлении Sk). Однако вдали от минимума матрица Гессе может и не быть положительно определенной. Более того, вычисление этой матрицы требует больших затрат. Поэтому разработан целый класс других методов, называемых методами с переменной метрикой или квазиньютоновскими, которые лишены этих недостатков . Эти методы были разработаны довольно давно, но обобщены только в последнее время. Они базируются на оценке градиентов и на аппроксимации матрицы Гессе или обратной к ней. Аппроксимация достигается изменением исходной положительно определенной матрицы специальным образом так, чтобы сохранить положительную определенность. Только при достижении минимума полученная матрица аппроксимирует матрицу Гессе (или обратную к ней). Во всех методах этого класса направление поиска определяется, как и в методе Ньютона (13). На каждой итерации по матрице Hk согласно специальной формуле получают матрицу Hk+1. В качестве примера приведем формулу, полученную Дэвидоном, Флетчером и Пауэллом , и ее иногда называют ДФП-формулой:  2F 2F 2F  . . .   x1x n   x1x1 x1x 2  2F 2F 2F  . . .   1 Матрица Гессе - матрица вторых производных G (x)   x 2 x1 x 2 x 2 x 2 x n   .  . .    2F 2F 2F   x x x x . . . x x  n 2 n n   n 1 14 H k 1 X (X)T H k  T H k H   T k (X)T   H  k (14) Эта формула пригодна только в случае, если (X)Т   0,  ТHk  0. Здесь k=Fk+1-Fk. 3. ОПИСАНИЕ КОМПЬЮТЕРНОЙ ПРОГРАММЫ АНАЛИЗА Программа имеет удобный графический пользовательский интерфейс для работы в среде операционной системы Windows. Исходным описанием оптимизируемой электронной схемы является информация в файле, созданном при выполнении второй лабораторной работы. Загрузив этот файл и выбрав элементы для оптимизации, с помощью этой программы выполняется расчет новых значений элементов. Критерием правильности расчетов является значение минимума целевой функции, которая рассчитывается как взвешенное среднеквадратическое отклонение требуемой и реальной характеристики РЭС: амплитудно-частотной, переходной или импульсной характеристик. Программа имеет стандартный набор элементов управления - меню, панель инструментов … . Автоматически создается отчет о проведенной лабораторной работе в html - формате. Примечание. После всех заполнений диалоговых окон значениями, нажимается кнопка <Далее>. Если отображаемый в последующем окне результат не устраивает, то нажатием кнопки <Назад> можно вернуться к предыдущим шагам и изменить условия поиска. 3.1. Запуск программы При запуске программы открывается окно, в котором в строке меню Файл необходимо открыть файл, сохраненный после выполнения второй лабораторной работы (рис. 1). 3.2. Составление задания на оптимизацию В файле с описанием схемы содержатся параметры элементов, включая схему замещения транзистора. В левом окне необходимо выбрать варьируемые параметры для параметрической оптимизации. Требуемая характеристика, например АЧХ, задается значениями частоты (в Гц) и соответствующими значениями коэффициента усиления (в Дб). На следующем этапе задается начальный шаг измерения параметров при оптимизации (рис. 2). 15 Рис. 1. Окно открытия входного файла Рис. 2. Окно выбора значений оптимизации 16 3.3. Результаты оптимизации На следующем этапе программа представляет результаты расчетов:  минимум целевой функции;  параметры варьируемых элементов до и после оптимизации;  количество вычислений целевой функции;  количество уменьшений длины шага и поисков по образцу. Критерием правильности полученных результатов является значение минимума целевой функции. Для биполярного транзистора оно должно быть примерно 10-7 I10-8, а для полевого транзистора - 10-4 I 10-5 (рис. 3). Если результаты оптимизации устраивают, то переходим к следующему этапу - построению амплитудно-частотной или временных характеристик (рис. 4, 6,). Для точного определения (нахождения) полосы пропускания РЭС, т.е. верхней и нижней граничных частот, а так же для определения времени переходных процессов имеются таблицы расчетов (рис. 5). Рис. 3. Окно расчетов после оптимизации 17 Рис. 4. Окно построения АЧХ Рис. 5. Значения АЧХ в таблице 18 Рис. 6. Окно временных характеристик 4. СОДЕРЖАНИЕ ЛАБОРАТОРНОЙ РАБОТЫ 4.1. Порядок выполнения 1. Подготовленный этап включает ознакомление с методическими указаниями к лабораторной работе, изучение теории оптимизации по конспекту лекций, литературным источникам и разделу 2 данных методических указаний. 2. Второй этап включает в себя выполнение теоретической работы: - формирование требований к оптимизируемой характеристике РЭС; - выбор элемента или элементов схемы, по параметрам которых предполагается осуществлять оптимизацию. 3. Загрузка программы-оптимизации с описанием оптимизируемой схемы и заданием на параметрическую оптимизацию. 4. Выполнение оптимизации. 5. Расчет характеристики схемы с оптимизированными параметрами. 6. Заключительный этап. На этом этапе сравниваются характеристики РЭС до и после оптимизации. По полученным материалам составляется отчет на листах формата А4 (297х210) с обязательным приложением распечаток результатов. 4.2. Задание к лабораторной работе 1. По результатам анализа АЧХ усилителя, полученной во второй лабораторной работе, сформировать требования к идеальной АЧХ. Выбрать способ задания идеальной АЧХ и координаты точек на графике АЧХ. 19 2. Определить группу элементов, по параметрам которых предполагается осуществить оптимизацию. 5. МЕТОДИЧЕСКИЕ УКАЗАНИЯ ПО ПОДГОТОВКЕ ИСХОДНЫХ ДАННЫХ 5.1. По графику АЧХ, рассчитанной при выполнении второй лабораторной работы, определяются верхняя и нижняя граничные частоты и выясняется влияние высокочастотной индуктивной коррекции. 5.2. Пользуясь знаниями схемотехники усилительных устройств, определяются компоненты, параметры которых определяют верхнюю и нижнюю граничные частоты. 5.3. На графике АЧХ строится идеальная (требуемая по техническому заданию) характеристика. Выбираются точки оптимизации. Для того чтобы сохранить вид АЧХ в полосе пропускания, необходимо также выбрать точки и в этой части характеристики. 6. СОДЕРЖАНИЕ ОТЧЕТА 1. Цель работы. 2. Исходные данные в виде принципиальной электрической схемы усилительного каскада и параметров его элементов до оптимизации. 3. Листинг результатов машинного анализа. 4. Анализ результатов. Выводы. 7. ВОПРОСЫ ДЛЯ САМОКОНТРОЛЯ 1. Назовите необходимое и достаточное условие существования минимума функции. 2. Какая матрица называется положительно определенной? 3. Почему целевую функцию называют функцией качества? 4. Назовите основное свойство целевой функции. 5. Какие задачи называют параметрическим синтезом, а какие - параметрической оптимизацией? 6. В каких случаях задача численного поиска минимума целевой функции относятся к задачам нелинейного программирования? 7. В чем отличие градиентных методов поиска экстремума функции от прямых методов? 8. Поясните понятие глобальный и локальный минимум. 9. Чем обусловлены ограничения при параметрической оптимизации радиоэлектронных устройств? 10. Поясните метод покоординатного спуска. 11. Чем отличается метод сопряженных градиентов от метода наискорейшего спуска? 12. Что означает в методе Хука - Дживса «поиск по образцу»? 13. Каковы критерии окончания итерационного процесса оптимизации? 20 СПИСОК ЛИТЕРАТУРЫ 1. Системы автоматизированного проектирования в радиоэлектронике: Справочник/Е.В. Авдеев, А.Т. Еремин, И.П. Норенков, М.И. Песков; Под ред. И.П.Норенкова. М.: Радио и связь, 1986. 368с. 2. Банди Б. Метода оптимизации. Вводный курс: Пер. с англ. М.: Радио и связь, 1988. 128с. 3. Влах И., Сингхал К. Машинные методы анализа и проектирования электронных схем. М.: Радио и связь. 1988. 560с. 4. Сборник задач по микросхемотехнике: Автоматизированное проектирование: Учебное пособие для вузов /В.И. Анисимов, П.П. Азбелев, А.Б. Исаков и др.; Под ред. В.И. Анисимова. Л.:Энергоатомиздат, Ленинградское отд-ие, 1991. 224с. 5. Диалоговые системы схемотехнического проектирования/ В.Н. Анисимов, Г.Д. Дмитриевич, К.Б. Скобельцын и др.; Под ред. В.Н. Анисимова. М.: Радио и связь, 1988. 288с. 6. Разевич В.Д., Раков В.К., Капустян В.И. Машинный анализи оптимизация электронных схем: Учебное пособие по курсам «Усилительные устройства» и «Радиоприемные устройства». М.:МЭИ, 1981. 88с. 7. Учебник по матанализу/ Табуева В.А. Математика, математический анализ: Учебное пособие. Екатеринбург: УГТУ-УПИ, 2001. 494с. 8. Кийко В.В. Кочкина В.Ф. Вдовкин К.А. Анализ электронных схем модифицированным методом узловых потенциалов. Екатеринбург: УГТУУПИ, 2004. 31с. 21

На практике постоянно встречаются такие ситуации, когда достичь какого-то результата можно не одним, а многими различными способами. В подобной ситуации может оказаться и отдельно взятый человек, например, когда он решает вопрос о распределении своих расходов, и целое предприятие или даже отрасль, если необходимо определить, как использовать имеющиеся в их распоряжении ресурсы, чтобы добиться максимального выхода продукции, и, наконец народное хозяйство в целом. Естественно, при большом количестве решений должно быть выбрано наилучшее.

Успешность решения подавляющего большинства экономических задач зависит от наилучшего, наивыгоднейшего способа использования ресурсов. И от того, как будут распределены эти, как правило, ограниченные ресурсы, будет зависеть конечный результат деятельности.

Суть методов оптимизации (оптимального программирования) заключается в том, чтобы, исходя из наличия определенных ресурсов, выбрать такой способ их использования (распределения), при котором будет обеспечен максимум или минимум интересующего показателя.

Необходимым условием использования оптимального подхода к планированию (принципа оптимальности) является гибкость, альтернативность производственно-хозяйственных ситуаций, в условиях которых приходится принимать планово-управленческие решения. Именно такие ситуации, как правило составляют повседневную практику хозяйствующего субъекта (выбор производственной программы, прикрепление к поставщикам, маршрутизация, раскрой материалов, приготовление смесей).

Оптимальное программирование, таким образом, обеспечивает успешное решение целого ряда экстремальных задач производственного планирования. В области же макроэкономического анализа, прогнозирования и планирования оптимальное программирование позволяет выбрать вариант народнохозяйственного плана (программы развития), характеризующийся оптимальным соотношением потребления и сбережений (накоплений), оптимальной долей производственных капиталовложений в национальном доходе, оптимальным соотношением коэффициента роста и коэффициента рентабельности национальной экономики и т. д.

Оптимальное программирование обеспечивает получение практически ценных результатов, так как по своей природе оно вполне соответствует характеру исследуемых технико-экономических процессов и явлений. С математической и статистической точек зрения этот метод применим лишь к тем явлениям, которые выражаются положительными величинами и в своей совокупности образуют объединение взаимозависимых, но качественно различных величин. Этим условиям, как правило, отвечают величины, которыми характеризуются экономические явления. Перед исследователем экономики всегда имеется – некоторое множество разного рода положительных величин. Решая задачи оптимизации, экономист всегда имеет дело не с одной, а с несколькими взаимозависимыми величинами или факторами.

Оптимальное программирование можно применять лишь к таким задачам, при решении которых оптимальный результат достигается лишь в виде точно сформулированных целей и при вполне определенных ограничениях, обычно вытекающих из наличных средств (производственных мощностей, сырья, трудовых ресурсов и т. д.). В условия задачи обычно входит некоторая математически сформулированная система взаимозависимых факторов, ресурсы и условия, ограничивающие характер их использования.

Задача становится разрешимой при введении в нее определенных оценок как для взаимозависимых факторов, так и для ожидаемых результатов. Следовательно, оптимальность результата задачи программирования имеет относительный характер. Этот результат оптимален только с точки зрения тех критериев, которыми он оценивается, и ограничений, введенных в задачу.

Отталкиваясь от вышесказанного, для любых задач оптимального программирования характерны три следующих момента:

1) наличие системы взаимозависимых факторов;

2) строго определенный критерий оценки оптимальности;

3) точная формулировка условий, ограничивающих использование наличных ресурсов или факторов.

Из многих возможных вариантов выбирается альтернативная комбинация, отвечающая всем условиям, введенным в задачу, и обеспечивающая минимальное или максимальное значение выбранного критерия оптимальности. Решение задачи достигается применением определенной математической процедуры, которая заключается в последовательном приближении рациональных вариантов, соответствующих выбранной комбинации факторов, к единственному оптимальному плану.

Математически это может быть сведено к нахождению экстремального значения некоторой функции, то есть к задаче типа:

Найти max (min) f(x) при условии, что переменная х (точка х) пробегает некоторое заданное множество Х:

f(x) ® max (min), х I Х (4.1)

Определенная таким образом задача называется задачей оптимизации. Множество Х называется допустимым множеством данной задачи, а функция f(x) – целевой функцией.

Итак, оптимизационной является задача, которая состоит в выборе среди некоторого множества допустимых (т. е. допускаемых обстоятельствами дела) решений (Х) тех решений (х), которые в том или ином смысле можно квалифицировать как оптимальные. При этом допустимость каждого решения понимается в смысле возможности его фактического существования, а оптимальность – в смысле его целесообразности.

Очень многое зависит от того, в каком виде задается допустимое множество Х. Во многих случаях это делается с помощью системы неравенств (равенств):

q1 (х1, х2, … , хn) {? , = , ?} 0,

q2 (х1, х2, … , хn) {? , = , ?} 0, (4.2)

……………………………..

qm (х1, х2, … , хn) {? , = , ?} 0,

где q1, q2, … ,qm – некоторые функции, (х1, х2, … , хn) = х – способ, которым точка х задается набором из нескольких чисел (координат), являясь точкой n-мерного арифметического пространства Rn. Соответственно множество Х есть подмножество в Rn и составляет множество точек (х1, х2, … , хn) I Rn и удовлетворяющих системе неравенств (2.2.2).

Функция f(х) становится функцией n переменных f(х1, х2, … , хn), оптимум (max или min), который требуется найти.

Понятно, что следует найти не только само значение max (min) (х1, х2, … , хn), но и точку или точки, если их больше одной, в которых это значение достигается. Такие точки называются оптимальными решениями. Множество всех оптимальных решений называют оптимальным множеством.

Задача, описанная выше, есть общая задача оптимального (математического) программирования, в основе построения которой лежат принципы оптимальности и системности. Функция f называется целевой функцией, неравенства (равенства) qi (х1, х2, … , хn) {? , = , ?} 0, i = 1, 2, … , m – ограничениями. В большинстве случаев в число ограничений входят условия неотрицательности переменных:

х1 ? 0, х2 ? 0, … , хn ? 0,

или части переменных. Впрочем, это может быть и необязательным.

В зависимости от характера функций-ограничений и целевой функции различают разные виды математического программирования:

1. линейное программирование – функции линейны;

2. нелинейного программирования – хотя бы одна из этих функций нелинейна;

3. квадратичного программирования – f(х) является квадратичной функцией, ограничения линейны;

4. сепарабельное программирование – f(х) представляет собой сумму функций, различных для каждой переменной, условия – ограничения могут быть как линейными, так и нелинейными;

5. целочисленное (линейное или нелинейное) программирование – координаты искомой точки х являются только целыми числами;

6. выпуклое программирование – целевая функция – выпуклая, функции – ограничения – выпуклые, то есть рассматриваются выпуклые функции на выпуклых множествах и т. п.

Наиболее простым и часто встречающимся является случай, когда эти функции линейны и каждая из них имеет вид:

а1х1 + а2х2 + … аnхn + b ,

то есть имеет место задача линейного программирования. Подсчитано, что в настоящее время примерно 80-85% всех решаемых на практике задач оптимизации относятся к задачам линейного программирования.

Сочетая в себе простоту и реалистичность исходных посылок, этот метод вместе с тем обладает огромным потенциалом в области определения наилучших с точки зрения избранного критерия планов.

Первые исследования в области линейного программирования, ставившие своей целью выбор оптимального плана работы в рамках производственного комплекса относятся к концу 30-х годов нашего века и связаны с именем Л.В. Канторовича. В отечественной научной традиции именно его принято считать первым разработчиком этого метода.

В 30-е гг., в период интенсивного эко­номического и индустриального разви­тия Советского Союза, Канторович был в авангар­де математических исследований и стре­мился применить свои теоретические разработки в практике растущей совет­ской экономики. Такая возможность представилась в 1938 г., когда он был на­значен консультантом в лабораторию фанерной фабрики. Перед ним была по­ставлена задача разработать такой ме­тод распределения ресурсов, который; мог бы максимизировать производительность оборудования, и Канторович, сформули­ровав проблему с помощью математиче­ских терминов, произвел максимизацию линейной функции, подверженной боль­шому количеству ограничителей. Не имея чистого экономического образо­вания, он тем не менее знал, что максими­зация при многочисленных ограниче­ниях-это одна из основных экономиче­ских проблем и что метод, облегчающий планирование на фанерных фабриках, может быть использован во многих дру­гих производствах, будь то определение оптимального использования посевных площадей или наиболее эффективное распределение потоков транспорта.

Говоря о развитии этого метода на Западе, следует сказать о Тьяллинге Купмансе, американском экономисте-математике голландского происхождения.

В миссии торгового флота Купманс пытался так разработать маршруты флотов союзни­ков, чтобы снизить до минимума затра­ты на доставку грузов. Задача была крайне сложной: тысячи торговых судов везли миллионы тонн грузов по морским путям между сотнями портов, рассеян­ных по всему миру. Эта работа предоста­вила возможность Купмансу применить свои математические знания к решению фун­даментальной экономической проблемы – оптимальному распределению дефицитных ресурсов между конкурирующими потребителями.

Купманс разработал аналитическую методи­ку, названную анализом деятельности, которая решительно изменила подход экономистов и руководителей к распре­делению маршрутов. Впервые он описал эту методику в 1942 г., назвав ее «Соот­ношение между грузами на различных маршрутах» ("Exchange Ratios Between Cargoes on Various Routes"), где показал возможность подхода к проблеме рас­пределения как к математической про­блеме максимизации в пределах ограни­чений. Величина, подлежащая макси­мальному увеличению, - это стоимость доставленного груза, равная сумме стои­мостей грузов, доставленных в каждый из портов. Ограничения были представ­лены уравнениями, выражающими отно­шение количества расходуемых факто­ров производства (например, судов, вре­мени, труда) к количеству груза, достав­ленному в различные места назначения, где величина любой из затрат не должна превышать имеющуюся в распоряжении сумму.

При работе над проблемой максими­зации Купманс разработал математические уравнения, которые нашли широкое при­менение как в экономической теории, так и в практике управления. Эти уравнения определяли для каждой из затрат на про­изводство коэффициент, равный цене этой затраты в условиях идеальных кон­курентных рынков. Таким образом была установлена основополагающая связь между теориями эффективности про­изводства и теориями распределения че­рез конкурентные рынки. Кроме того, уравнения Купманса представляли большую ценность для центральных планирую­щих органов, которые могли использо­вать эти уравнения для определения со­ответствующих цен на различные затра­ты, оставляя при этом выбор оптималь­ных маршрутов на усмотрение местных директоров, обязанность которых со­стояла в максимизации прибыли. Метод анализа деятельности мог широко при­меняться любыми руководителями при планировании процессов производства.

В 1975 году Л.В. Канторовичу и Тьяллингу Ч. Купмансу была присуждена Нобелевская премия «за вклад в теорию оптимального распределения ресурсов».

Говоря о первых исследованиях в области линейного программирования, нельзя также не упомянуть еще об одном американском ученом – Джордже Д. Данциге. Конкретная формулировка метода линейного программирования восходит к его работе, выполненной им по заказу ВВС США во время Второй Мировой войны, когда возникла проблема координации действий одной большой организации в таких вопросах, как накопление запасов, производство и содержание оборудования и материально-технического снаряжения, причем имелись альтернативы и ограничения. Кроме того, в свое время Дж. Данцинг работал совместно с В.В. Леонтьевым, и симплекс-метод решения линейных оптимизационных задач (наиболее часто применяемый для их решения) появился в связи с одним из первых практических применений метода межотраслевого баланса.

 

Возможно, будет полезно почитать: