Обсуждение:Перцептрон

Материал из Википедии — свободной энциклопедии
Перейти к навигации Перейти к поиску

Картинка для XOR[править код]

Не кажется и вам, что она не вполне правильная? В случае, когда входы равны 11, на реагирующий элемент подаётся -1. Это явно его не возбуждает.

Что за хрень?[править код]

«Главное ограничение перцептронов состоит в том, что они реализуют исключительно линейные функции» - что за хрень? С каких пор сигнум - линейная функция? Возможно, автор хотел сказать, что однослойные перцептроны гарантированно работают лишь на линейно разделимых множествах, но это совсем не в ту степь. 91.124.91.54

Надо разделить на Многослойный и Однослойный. Однослойный действительно может реализовывать только линейные функции, т.к. собственно один слой и функция активации - пороговая. Vladimir V. Alekseev 19:20, 14 августа 2007 (UTC) Это еще та хрень - лучше вообще стереть, т.к. НИ ОДНО СЛОВО НЕВЕРНО, это огромнейшее заблуждение - говорим о перцептроне Розенблатта (фамилия,которого даже правильно написать немогут), а ссылки на оригинальные работы нет ! Sergey Jаkovlev. 62.85.31.205 03:40, 30 декабря 2007 (UTC)[ответить]

Ну, вот теперь, хоть и поверхностно - но зато правда. Читайте классику! Если - нужны дополнительные комментарии пишите tac@inbox.lv ... и больше так не подставляйтесь :) 62.85.31.205 01:27, 31 декабря 2007 (UTC)[ответить]

С точки зрения банальной эрудиции... блин, ну оно ж совсем не связно. Пахнет полумашинным переводом. Что за нумерация определений? Что вообще за стиль? хэх... Хоть я с ними лет десять назад имел дело но так сходу почти ничего не понял... половину догадался, а это всетаки не узкотематический справочник. Mendel 22:30, 6 января 2008 (UTC)[ответить]

PS: както так оно должно быть... Персетрон/temp Mendel 23:35, 6 января 2008 (UTC)[ответить]

Очень печально когда не читают основы. Нумерация определений данна Розенблаттом, сохранена мной с целью дать минимум изложения, но показать ее не законченность. Перевод далеко не машиный - а оригинальный ! И после такого комментария становиться сомнительно, что Вы вообще знаете что такое перцептрон. Может еще скажите, что перцептрон не может решить нелинейные задачи, например XOR ? 62.85.31.205 23:33, 12 января 2008 (UTC)[ответить]

Блин. Ну, откуда эта повальная ошибка ? Почему перцептроном Вы называете пороговый элемент ??? Альтернативный набросок не соответствует ИСТИНЕ !!! 62.85.31.205 23:37, 12 января 2008 (UTC)[ответить]

Но, тем ни менее я дополнил статью пояснениями, для лучшего понимания 62.85.31.205 00:43, 13 января 2008 (UTC)[ответить]

А однослойная нейронная сеть может решить XOR? 91.202.44.26 03:58, 12 января 2009 (UTC)[ответить]

Без специальных преобразований нет ! При специальной функции активации можно, тут главное геометрически перевернуть ... SergeyJ 14:12, 12 января 2009 (UTC)[ответить]

А можно попродробней, как это сделать? Хотелось бы с вами пообщаться в ICQ например, чтоб не захламлять обсуждение статьи. Моя аська 289599095. 91.202.44.26 15:00, 12 января 2009 (UTC)[ответить]

Приходите сюда http://ru.vlab.wikia.com, а точнее сюда http://ru.vlab.wikia.com/wiki/Обсуждение:Кабинет:Сергей_Яковлев ... попробую ответить на ваши вопросы - только не пойму зачем это вам надо, там где нельзя :) , ICQ не пользуюсь - и мне удобнее отвечать когда есть время ... SergeyJ 18:45, 12 января 2009 (UTC)[ответить]

Никого не смущает полное противоречие этой статьи своей английской версии? 06.07.2016 37.29.12.114 05:57, 6 июля 2016 (UTC)[ответить]

Рецензия на 31 декабря 2007 г. — 22 января 2008 г.[править код]

Здесь находятся завершившиеся обсуждения. Просьба не вносить изменений.

Существенно по смыслу изменил статью, прошу знающих специалистов оценить, рецензировать - в случае принципиального согласия будем уточнять детали, и номинировать в хорошее ... SergeyJ 02:25, 31 декабря 2007 (UTC)[ответить]

  • Взаимно!! Загляните ради в приличия в оригинал! — Эта реплика добавлена с IP 62.85.31.205 (о) 13 января 2008 (UTC)
  • Пока что слабая статья. Не раскрыто значение модели, невнятная критика. Где ссылки на Минского, Уидроу и др.? В преамбуле много лишнего: вдруг начинается пространное объяснение, что такое "модель мозга". Путаница в терминологии: получается, что перцептрон Розенблатта является частным случаем модели, созданной Розенблаттом. Почему определений несколько и почему их нумерация начинается с номера семь? Раздел "Комментарии" следует разделить и переименовать. Наконец, стиль хромает, интервики почти отсутствуют. Статья должна представлять интерес и для неспециалистов, и для специалистов, для чего нужно переделать её структуру.—contra_ventum 00:24, 18 января 2008 (UTC)[ответить]
    Допустим, на стиль я действительно пока мало обращал внимания - подумаю. Но поясните, что дадут ссылки на Минского или Уидроу ? О какой критики идет речь ? Касательно преамбулы - несогласен, именно начиная с перцептрона начали серьезно говорить о "модели мозга", поэтому не упоминуть об этом было бы странно, т.к. это его основная задача ! Касательно "перцептрон Розенблатта является частным случаем модели, созданной Розенблаттом" именно так и получается, а если внимательнее читать, то получится, что "элементарный перцептрон Розенблатта является частным случаем перцептронов, достаточно полная классификация которых предложена Розенблаттом". К сожалению, чтобы были интервики - их еще создать нужно, нельзя ссылаться на то чего нет :) Как предложите разделить раздел "комментарии"? Там ведь цельно описывается для неспециалистов, что представляет собой элементарный перцептрон. Да, и что значат ваши слова "Не раскрыто значение модели" ?
    Да, кстати о определениях - Номера определений оригинальные, выбраны именно те которые представляют наибольший интересс для понимания перцептрона. Если будут создаваться еще некоторые статьи "около перцептрона" возможно там будет необходимо дать другие определения ...
    Обратите так же внимания на мои исправления и уточнения в статье Искусственный интеллект раздел о направлениях в исследовании ИИ, а то было очень сумбурно ... (думаю это послужит хорошей отправной точкой для изложения в области ИНС) SergeyJ 195.114.56.222 13:41, 18 января 2008 (UTC)[ответить]
    И еще - дайте совет, чтобы улучшить статью о перцептроне так сказать "в большом" в вике нужна некоторая статья о "Моделировании мозга" - но будет ли статья с таким названием уместна ? 195.114.56.222 14:01, 18 января 2008 (UTC)[ответить]
    Возможно мои вопросы наивны, но это скорее свидетельствует о том, что статья написана непонятно. В особенности это касается преамбулы (аннотации), после чтения которой должна складываться чёткая картина, что такое перцептрон, а не возникать недоумённые вопросы. Ведь большинство читателей Вики, как и научных статей, не идут дальше аннотации. Ссылки на Минского или Уидроу будут интересны специалисту. А для неспециалиста пока что решительно неясно, какое место идея Розенблатта занимает в целом ряде попыток смоделировать работу мозга, чем она лучше предыдущих попыток, чем она несовершенна. Мне кажется, имеет смысл изменить структуру статьи. Структура должна включать, как минимум: предысторию и историю создания модели; краткое популярное описание; описание для специалистов, с точными определениями и ссылками; критический анализ достоинств и недостатков со ссылками; приложения модели. Вот хороший образец: Общая теория относительностиcontra_ventum 23:07, 18 января 2008 (UTC)[ответить]
    Немного уточнил. Вопросы связаные с моделью мозга вынес в отдельную статью Модель мозга, там более корректно смотряться вопросы с предисторией (последующие модели так-же предполагается вносить туда). Это позволяет в статье о перцептроне сосредоточиться на техническом описании. Первое, что там считаю нужным сделать - это добавить классификацию перцептронов, данную самим Розенблаттом, а также вариант Минского (как только появится время сделаю).
    Упоминание о Минском и Уидроу в статье есть - Вы имеете введу ссылки на их работы ? Касательно, структуры предложите четкие названия разделов ? Серьезный критический анализ (и анализ достоинств) требует существенного времени (хотя пару фраз уже и так есть в статье !), и боюсь что не специалисту будет уж точно не понятен, но если Вы настаиваете (?) со временем доработаю. — Эта реплика добавлена участником SergeyJ (ов) 18:28, 19 января 2008 (UTC)[ответить]
    Да, желательно больше ссылок на работы; можно на оригиналы, а не на переводы. Эти ссылки легко уточнить на scholar.google.com. Часто легче вначале написать разделы для специалистов, а потом популярно изложить их суть. Точные названия разделов может предложить только человек, разбирающийся в вопросе, а я им не являюсь. Я просто описал структуру, общую для хорошо написанных энциклопедических статей о каких-либо моделях, и даже привёл образец. Вот ещё пример: Теория «Смысл ↔ Текст»contra_ventum 21:42, 19 января 2008 (UTC)[ответить]

Ну, что попробуем снова :) Принципиальные моменты подправил, жду дальнейших пожеланий. SergeyJ 00:30, 20 января 2008 (UTC)[ответить]

  • Может дать в начале краткое определение как в английском разделе? «Перцептрон — тип искусственной нейронной сети, предложенный в 1957 году Фрэнком Розенблаттом. Может рассматриваться как простейший вид сети прямого распространения — линейный классификатор.» А уже следующим абзацем давать то определение, что указано сейчас в начале статьи. Кроме того, странно видеть в начале статьи указание на искажение названия, лучше дать ва написания, а версии искажения указать в сноске (кстати, а это не от латинского перцептио — восприятие? такое слово есть в Брокгаузе) --Александр Сигачёв 15:31, 22 января 2008 (UTC)[ответить]
    Нет, нужно наоборот английский вариант исправлять, т.к. фраза "Может рассматриваться как простейший вид сети прямого распространения — линейный классификатор." - полнейшая чушь, это "простейший вид" может потягаться с любой из других видов ИНС, и по многим характеристикам их опередит !!! . Если кто достаточно владеет английским, то постарайтесь это устранить. С написанием, да именно от perception - но скорее английское, незнаю что такое Брокгауз, да и к сожалению сноски еще не умею делать, поэтому если можете сделайте соответствующую корректировку, заодно научусь и посмотрю как будет выглядеть. С написанием действительно тяжело, т.к. искаженное название попало даже в проверяльщики грамматики ... Да, и кстати, слово перцептрон в то время была эквивалентом современного слова искуственная нейроная сеть. Т.е. это целое семейство ИНС, специально для этого я предоставил классификацию перцептронов ... Но проблема в чем - слово "перцептрон-восприятие", покушалось на то, чтобы быть моделью человеческого восприятия, в околонаучных кругах это наверняка воспринималась также как откровение Дарвина, что человек произошел от обезьяны, была проведена критика, обозначена ненаучность (в СССР вроде вообще запретили кибернетику :) ), результатом стал отток гос. финансирования, Розенблатт нас покинул, и стопор 20 лет, и только последующая реклама возобновила интерес - для этого переназвали более научно, подзасунули под раздел ИИ, объявили перцептрон - детской ерундой, которая не может решить даже задачи XOR, чтобы у специалистов смежных специальностей не было вопросов, и показали, что могут быть другие варианты ИНС, конечно же далеко не ушли, т.к. просто переделали метод градиентного спуска в метод обратного распространения ... вообщем это неофициальная история, которую все знают, но не любят вспоминать ... SergeyJ 22:18, 22 января 2008 (UTC)[ответить]

Источник[править код]

Источник к "Традиционным заблуждениям" не требуется, т.к. это факт, основанный на анализе оригинальных работ. Но можете рассматривать в качестве источника мою статью "Линейность и инвариантность ... " С.С. Яковлев - специально для проекта Вики :) ... пометку снимаю ... 62.85.31.205 23:41, 6 марта 2008 (UTC)[ответить]

Розенблатт и Минский в интернете[править код]

Была найдена ссылка на классические работы, теперь все лентяи не любящие ходить в библиотеку могут ознакомится с классической литературой. Надеюсь на этом все проблемы с недоверием к моей статье устранятся - несогласны, открываете книгу Розенблатта или Минского - и только тогда аргументировано возражаете. Ссылки см. в Литературе к этой статье.

Структура статьи[править код]

Предлагаю следующую структуру для статьи:

  1. Появление перцептрона
  2. Математическая модель
    1. Модель Розенблатта
    2. Модель на основе предикатов
  3. Возможности и ограничения модели
  4. Традиционные заблуждения
  5. Многослойный перцептрон

Примечание: По этой схеме, возможности и ограничения включают в себя ограничения по Минскому.

Александр Крайнов 07:52, 27 апреля 2008 (UTC)[ответить]

Попробуем уточнить

  1. Появление перцептрона
  2. Биологическая модель
  3. Математическая модель
    1. Модель на основе обработки сигналов (Розенблатт)
      1. Виды элементов (нейронов) в перцептроне
      2. Определения и классификация перцептронов
    2. Модель на основе предикатов (Минский)
    3. Модель на основе градиентного спуска (Многослойный перцептрон) (Здесь только упоминание, а может и вообще не нужно)
  4. Элементарный перцептрон
  5. Алгоритмы обучения
  6. Традиционные заблуждения
    1. Терминологические неточности
    2. Функциональные заблуждения
  7. Возможности и применение перцептрона
  8. Ограничения перцептрона
    1. Ограничения, связанные с инвариантным представлением
    2. Ограничения, связанные с возможностью прогнозирования
    3. Технические ограничения по скорости и объему используемой памяти
  9. См. также
  10. Примечания
  11. Литература
  12. Внешние ссылки

Преамбула[править код]

Как и обещал, преамбула. Длинной правда получилась...

Перцептро́н (неверно: персептрон[1], англ. perсeptron от лат. perсeptio — восприятие) — математическая модель восприятия информации человеческим глазом, предложенная Фрэнком Розенблаттом в 1957 году и реализованная им же в виде электронной машины «Марк-1» в 1960 году. Перцептрон стал одной из первых моделей нейросетей, а «Марк-1» — первым в мире нейрокомпьютером. Несмотря на свою простоту, перцептрон способен обучаться и решать довольно сложные задачи.

Перцептрон состоит из трёх типов элементов: поступающие от сенсоров сигналы передаются ассоциативным элементам, а затем — выходным. Согласно современной терминологии, перцептроны могут быть классифицированы как двухслойные нейронные сети с последовательной передачей на основе пороговой передаточной функции. (Это неверно, а всё-таки, как они определяются?)

С этим понятием связано множество заблуждений, возникших в результате научных споров и из-за отсутствия в то время (1960-е годы) годов общепринятой терминологии. Иногда «перцептроном» называют простой искусственный нейрон, что совершенно неверно. Часто имеется в виду частный случай — так называемый элементарный перцептрон, который упрощён по сравнению с общим видом по ряду параметров. На этом основании в 1969 году в книге М. Минского и С. Паперта прозвучала критика перцептронов, которая привела к «застою» области нейросетей. Позднее ошибки были исправлены и интерес к работам Розенблатта возобновился.

Александр Крайнов 07:52, 27 апреля 2008 (UTC)[ответить]

  • Вы потеряли ключевую фразу "созданная Фрэнком Розенблаттом с целью построения «модели мозга»."
  • Двухслойные нейронные сети - нас не поймут :) Лучше тогда сказать, нейроная сеть с одним скрытым слоем - покрайней мере такое выражение устойчиво и я его слышал не раз.
  • Вы потеряли "реакцию", и ссылки на сенсор и ассоциативность - это важно.
  • Кто, кто а Минский очень хорошо понимал что такое перцептрон Розенблатта, поэтому акцент не правильный. Не понятно какие это ошибки были исправлены ? Возможности перцептронов и даже в целом нейросетей с того времени НИСКОЛЬКО не возрасли !

- Пока неподходит - нужно переформулировать, и достаточно основательно. SergeyJ 11:29, 27 апреля 2008 (UTC)[ответить]

Последний абзац за Вами ... пока вставляю только первых два (с моей корректировкой) (см. статью) - если что пишите ... SergeyJ 12:00, 27 апреля 2008 (UTC)[ответить]

Возможно нужно, что то типа:

На этом фоне скептитизма и романтизма в 1969 году вышла книга М. Минского и С. Паперта, которая показывала принципиальные ограничения перцептронов. Из-за сложности математического анализа перцептронов вообще, и в частности с помощью предложенного Минским подхода на основе предикатов - возникали впоследствии различные неточности. Из-за этого интересс переместился к другим моделям нейросетей, но как только было понято, что они принципиально не отличаются от перцептрона Розенблатта, интерес к его работам возобновился. SergeyJ 13:26, 27 апреля 2008 (UTC)[ответить]

Зря Вы убрали мой комментарий о МАРК-1 - он был точнее, указывалось, где он был сделан и для чего. И еще какая-то мистика, но ссылка [2] невидна ? , в прошлый раз мне удалось ее увидеть, когда Фрэнк я сократил до Ф. ... теперь не получается ... но с этим надо что-то делать ... Это устойчивый глюк для Оперы, для IE все Ок ?! SergeyJ 22:09, 27 апреля 2008 (UTC)[ответить]

Я думаю, где был сделан Марк нужно указать не в начале статьи, а в истории появления. А описание его назначения я сохранил, но в Опере что-то совсем не видно... — Александр Крайнов 23:32, 27 апреля 2008 (UTC)[ответить]
Ок - вставьте тогда в историю появления, для устранения глюка пришлось убрать слово "кибернетическая" - думаю не трагедия :) SergeyJ 00:32, 28 апреля 2008 (UTC)[ответить]
Обещают исправить, будем ждать. А модель мозга лучше оставить кибернетической, или нейрокибернетической. Модель — слишком широкое понятие; так, модель мозга может быть визуальная — из пластилина. — Александр Крайнов 01:18, 28 апреля 2008 (UTC)[ответить]

Да, и что это за реактивные элементы :) думаю Вы зря их заменили с решающих ... SergeyJ 22:10, 27 апреля 2008 (UTC)[ответить]

Еще я как то не пойму, что показывают графики гиперплоскостей ... там есть глупое слово однослойный - или его надо заменить, или убрать график, или дать определение однослойного перцептрона - но это не перцептрон Розенблатта ... Лучше думаю изменить комментарий к рисунку - не не до конца понимаю, что вы хотели этим показать ... SergeyJ 22:23, 27 апреля 2008 (UTC)[ответить]

«Однослойный перцептрон» — это как раз то, что раскритиковали Минский и Паперт, что он не может решать проблему XOR (по версии английской статьи). Я думаю что об этом заблуждении тоже нужно рассказать, сравните: иногда «перцептроном Розенблатта» называют простой искусственный нейрон, что неверно.
Графики в этом виде действительно не совсем подходят, когда я их делал, я думал что у перцептронов сигмоидальная функция, а не пороговая. Видимо, ещё одна модификация исходного понятия. — Александр Крайнов 23:32, 27 апреля 2008 (UTC)[ответить]
Не-а, видите как далеко все зашло .. Минский и Паперт - критиковали ИМЕННО перцептрон Розенблатта, было бы странно если бы это было не так - судя по всему они были одноклассники :) Критиковали они его правильно и за дело (но только никогда не говорили о XOR - там все на порядок сложнее). А вот английская версия статьи состоит сплошь из заблуждений (если владеете английским - займитесь ей) ... и это не единственное место ... Исторически первое упоминание о однослойном перцептроне я нашел только в работе Вассермана ... и от туда растут ноги всех проблем ... судя по всему Вассерман вольно проинтерпретировав Минского, на самом деле ввел понятие о однослойном перцептроне, для него вольная интерпретация не в новинку ... он многие работы изложил на свой лад, стремясь хоть к какой-то классификации идей ... Но с перцептроном получился самый большой ляп ... В общем в статье это думаю отраженно ...

Давайте графики пока уберем - может потом они понадобятся ... SergeyJ 00:19, 28 апреля 2008 (UTC)[ответить]

Третий абзац - хорошо получился :) SergeyJ 23:13, 27 апреля 2008 (UTC)[ответить]

Это хорошо :) — Александр Крайнов 23:32, 27 апреля 2008 (UTC)[ответить]

Может подумаете как написать возможности и применения перцептрона ? Сейчас как-то недостаточно, чтобы выделить раздел ... SergeyJ 00:41, 28 апреля 2008 (UTC)[ответить]

Можно преамбулу сделать проще?--Камень 22:43, 23 февраля 2009 (UTC)[ответить]

Новая критика[править код]

IMHO надо как-то пересмотреть структуру статьи и улучшить описательную часть, хоть это и сложно. В нынешнем виде статью сможет воспринять только тот, кто это уже все знает, или знает почти все из написанного. Например предлагаю Описание элементарного перцептрона расположить в начале перед математической моделью, а лучше вообще в самое начало. Дать четкое определение элемента, а то непонятно, что это такое. Конечно для этого не хватает статьи Искусственный нейрон. Kolas 21:29, 28 августа 2008 (UTC)[ответить]

Возможно вы в чем-то правы, но давайте разберемся в деталях. Что-такое элемент ? Наверняка имется введу S, А, R элементы ? Но именно в самом начале если читать математическая модель, как раз и дается определение этих элементов, без излешней детализации (ее можно найти в Искусственный нейрон), так сказать на логическом уровне. Затем дается определения еще ряда терминов, и некая классификация видов перцептрона. И если читать последовательно, то статью Описание элементарного перцептрона НЕЛЬЗЯ понять без предыдущего текста. Другой вопрос, что многие хотят прочитать по диагонали и сказать - "а понял". Почему мне кажется не стоит подымать этот раздел выше - так именно потому, что возникнут вопросы - "а что это такое?" ... как и у Вас с "элементами", другой вопрос, если Вы так и не поняли что такое элементы прочитав определение, тогда готов выслушать как стоит его изменить ? Возможно действительно нужно поменять просто название с "Математическая модель" на "Основные понятия теории перцептронов" SergeyJ 23:18, 28 августа 2008 (UTC)[ответить]

Так, статья Искусственный нейрон нейрон есть, это мне грамотность по ночам отказывает. :) Как мне сечас кажется, надо перемешать(объединить) разделы Описание элементарного перцептрона и Описание на основе сигналов, а дальше предикатную модель. Определение элементов должно начинаться так - Простым S-элементом (сенсорным) является искусственный нейрон, играющий роль чувствительного элемента..., или как-то похоже. Kolas 10:27, 29 августа 2008 (UTC) 1. Смешивать плохо, термины лучше отделять от описания алгоритма. Да предикатная модель не особа нужна при первом прочтении, это в стаье я указал, но различные трактовки лучше держать вместе - повышается четкость изложения. 2. "S-элементом является искусственный нейрон" - это масло маслянное, хотя возможно, где то и имеет смысл объяснить связь этих элементов с искусственным нейроном. SergeyJ 18:44, 29 августа 2008 (UTC)[ответить]

Рецензия с 6 по 7 декабря 2008 года[править код]

Здесь находятся завершившиеся обсуждения. Просьба не вносить изменений.

Прошу высказываться, чего не хватает в этой статье для доведения ее до уровня избранной. Спасибо. SergeyJ 04:03, 6 декабря 2008 (UTC)[ответить]

  • 1)) Сейчас структура такова, что более простые вещи описываются после сложных (в обсуждении статьи об этом есть заметка). Самое важное, что мне кажется нужно исправить насчёт этого:
    1.1.а) Описание элементарного перцептрона перенести наверх, сразу после введения.
Ok. SergeyJ 09:40, 7 декабря 2008 (UTC)[ответить]
  • 1.1.б) Перенести в этот раздел определения S, A, R-элементов.
Это уже излишнее, в начале раздела о элементарном перцептроне это "на пальцах" объясняется ... а усложнять здесь не стоит. SergeyJ 09:40, 7 декабря 2008 (UTC)[ответить]
  • 1.1.в) После этого здесь же «на пальцах» объяснить чё такое элементарный перцептрон, и отослать интересующегося читателя к разделу определений фразой «точное определение элементарного перцептрона см. ниже».
Фразу можно поставить, но 6на пальцах - это и будет весь этот раздел ... SergeyJ 09:40, 7 декабря 2008 (UTC)[ответить]
  • 1.2) В разделе определений выделить подраздел с названием «Классификация по количеству слоёв», где описать отличия «канонического» перцептрона от однослойного и многослойного.
Что-то такое имеет смысл - буду думать ... SergeyJ 09:40, 7 декабря 2008 (UTC)[ответить]
  • 1.3) Алгоритмы обучения сделать подразделом раздела «Возможности и ограничения модели», так как это месторасположение логично следуют из слов «Исследования перцептронов показали, что перцептроны способны обучаться».
Нет, что то меня останавливает ... как-то не совсем логично ... SergeyJ 09:40, 7 декабря 2008 (UTC)[ответить]
В разделе "Возможности" - нужно вроде написать о практическом применении перцептрона ... но тут нужно серьезно подумать, так как это будут скорее более новые модификации, по сравнению с тем что написанно, т.е. годов так после 90х, а сейчас статьях охватывает период лишь до критики Минского, т.е. до 70-х ...
Подумайте на тему, какой НОВОЙ информации не хватает ? SergeyJ 09:40, 7 декабря 2008 (UTC)[ответить]
  • 2)) С середины статьи после разделов «с картинками» начинается чистый текст, а это плохо влияет на его восприятие. Надо подумать над оформлением текста. Кроме того, его нужно прочитать на предмет повторяемости мыслей и понятности, но об этом нужно в первую очередь попросить того, кто в первый раз знакомится со статьёй. — Александр Крайнов 23:38, 6 декабря 2008 (UTC)[ответить]
  • 3)) Мелочи, которыми я заняться постараюсь:
    3.а) Изображение с решением XOR надо сделать векторным.
    3.б) Привести в единый стиль оформление источников. — Александр Крайнов 23:38, 6 декабря 2008 (UTC)[ответить]

Моменты[править код]

Монохромное изображение[править код]

Александр Крайнов, уверены ли Вы в том, что полутона допустимы в такой постановке задачи? Если да, то можно оставить так, но если нет, то верните битовое изображение — статья будет. Incnis Mrsi 15:07, 19 января 2009 (UTC)[ответить]

Нет, полутона не допустимы. Но красных ссылок не нужно, лучше тогда уже оставить в общем виде изображение. SergeyJ 20:16, 19 января 2009 (UTC)[ответить]

Я поставил ссылку на «монохромное», потому что подумал, что у этого варианта есть больше шансов на создание. «Битовое» будет чуть более правильнее. А вообще в задаче принципиально наличие ровно 2-х цветов (любых), так как на вход перцептрона мы будем подавать не цвета, а только 8 бит адреса строки и 8 бит адреса столбца, итого 16 рецепторов. — Александр Крайнов 21:46, 19 января 2009 (UTC)[ответить]
Плохо Вы подумали, как и по поводу выделения безобразного ответвления «перцептрон (заблуждения)». Пожалуйста, положите кусок текста на место (не забыв вернуть мой вариант ссылки, ибо статья уже готова) либо придумайте ему такое название, чтобы тему заблуждений/путаницы/недопониманий, связанных с нейронными сетями, можно было расширять не только Вам. В статью с таким названием, как Вы измыслили (кстати, оно и не в ладах с правилами именования), никто кроме фанатов перцептрона просто не пожелает лезть. Incnis Mrsi 23:43, 19 января 2009 (UTC)[ответить]
Это моя вина, хорошо по настоятельным просьбам верну ... Исходил я совершенно из других побуждений, статья как мне указали перегружена и я подумал, что это не столь существенно, хотя именно эти заблуждения в большей мере и побудили меня написать разъясняющую статью SergeyJ 00:42, 20 января 2009 (UTC)[ответить]
Если тут что-то принципиально, то только цифровое исполнение Цифровая фотография перед словами изображение стоит "черно-белое", что и выделяет данное изображение от других цветов. SergeyJ 23:30, 19 января 2009 (UTC)[ответить]
Хотя если вы уже написали статью, то ОК. SergeyJ 23:31, 19 января 2009 (UTC)[ответить]


"Обучаем перцептрон всем возможным состояниям[непонятно], то есть на вход подаём последовательно координаты X, Y и требуем на выходе соответствующий цвет точки." А что в этой фразе непонятно собственно ?? SergeyJ 00:48, 20 января 2009 (UTC)[ответить]
Непонятно, о состояниях какой системы идёт речь. Если Вам тут всё хорошо понятно, ну-ка назовите сходу, без размышлений, число этих «возможных состояний». Incnis Mrsi 09:21, 20 января 2009 (UTC)[ответить]
Ну, читая серьезную статью надо размышлять :) Число этих всех состояний указано 65536 . Т.е. число разных состояний получаемых в перцептроне при обучении всем возможным примерам поставленной задачи, по мне это очевидно вытекает из контекста - улучшите если считаете по другому, надеюсь теперь понятно. SergeyJ 16:38, 20 января 2009 (UTC)[ответить]
Как я понял, речь идёт всего лишь о представлении заданной булевой функции 16 аргументов, и пресловутое изображение упомянуто вообще не по делу ☺ Incnis Mrsi 21:56, 20 января 2009 (UTC)[ответить]
Упомянуто как раз по делу, так как это визуальное представление математической формулировки "представлении заданной булевой функции 16 аргументов". Перцептрон не решает математические задачи - он решает задачи распознования образов, поэтому нужно использовать соответствующую терминалогию, несмотря на то, что есть математические аналоги описания задачи. В более общем виде и более формально математически описанно цитатой выше, здесь же упращенный практический пример. SergeyJ 01:09, 21 января 2009 (UTC)[ответить]
Думаете, Incnis Mrsi уж совсем не понимает, что такое распознавание образов и чем ваш пример отличается от? Поясняю. Предположим, ваша система должна должна обрабатывать растровое изображение (битовое ли, непрерывное, цветное — не суть). Значит, на каждый пиксел вам требуется по одному входу минимум. 65536 входов вам надо, понимаете, чтобы работать с данным объектом как с распознаваемым изображением. Входов, а не состояний координат! Где вы видели систему распознавания образов типа нейронной сети, в которую битовое изображение загоняют по одному биту? У вас-то задача ставится, в каком-то смысле, обратная. Не распознать образ, а синтезировать заданный, если уж на то пошло. Кстати, я так и не понял, сколько же у вас там элементов, что в них помещается 65536 бит информации? Как этот пример с точки зрения теории информации толкуется? Incnis Mrsi 09:12, 21 января 2009 (UTC)[ответить]
Вы намекаете на сжатие? Сомневаюсь, что оно тут имеет место. Подозреваю, что даже если там будет 1000 элементов, для хранения всех весов перцептрона уйдёт намного больше, чем 65536 бит. — Александр Крайнов 09:30, 21 января 2009 (UTC)[ответить]
Какое ещё сжатие? Разве «изображение» (a.k.a. булева функция, a.k.a. массив 65536 бит) не может быть выбрано произвольно? Incnis Mrsi 09:41, 21 января 2009 (UTC)[ответить]
Все зависит от того как вы кодируете изображение. Вы описали прием так сказать в "лоб" - запишем все изображение и все. Перцептрон же отличается тем, что работает как ассоциативная память. Поэтому сжатие тут как раз причем. По сути такое представление изображения в практическом смысле выгодно когда знаешь лишь часть изображения, или же хочешь сжать с потерями. Тогда перцептрон обучается не на всех возможных случаях, а скажем только на примере 10000 точек. По ним он способен востановить изображение полностью. Тест же когда запоминается все примеры показывает то, что нет такой подпоследовательности примеров которую бы не смог запомнить перцептрон. Поэтому именно такой тест и опровергает описанное заблуждение. Число элементов написано, что достаточно в данном частном пример (а не произвольном) 1500 нейронов, чсло же связей не столько принципиально но колеблется от 10-20. Итого 655360 (или *2) бит в первом слое, и порядка 1500 байт во втором. Да, верно о эффективном сжатии говорить не приходится. Но система хранит больше информации чем просто 65536 бит, она хранит с распределенным доступом соответствие 65536 примеров 16 бит к 1 биту, т.е. несколько упрощенно таблицу из 1114112 битов. Оценивайте дальше сами перцептрон используе явных 667360 бит, плюс само устройство. Это без потерь. Про точки зрения теории информации я что-то не понял ? Такое сжатие возможно из-за статистического обобщения ряда однородных примеров. Перцептрон обладал бы искуственным интеллектом, если бы смог найти закономерность и в этом примере использовать не 1500 А-элементов, а 3 А - элемента. Т.е. показал бы что решается по сути задача XOR не зависимо от размерности востанавливаемого рисунка - т.е. нашел бы подобие как это делает человек. SergeyJ 10:31, 21 января 2009 (UTC)[ответить]

Иллюстрация о XOR[править код]

Мой рисунок о решении задачи XOR нес больше информации, во-первых решение с нулевыми порогами предпочтительнее - иначе вам прейдется объяснять как настраивались пороги в перцептроне, во вторых у меня была табличка с показом того, как ищутся веса, иначе вы сталкнетесь с обвинениями типа - вы "руками скоструировали решение, а оно не достижимо в перцептроне" ... прошу как минимум вернуть мой вариант как альтернативу. SergeyJ 20:16, 19 января 2009 (UTC)[ответить]

В этом месте таблица излишняя, так как здесь описывается принципиальная возможность решения, а не алгоритм обучения для получения такого решения. — Александр Крайнов 21:46, 19 января 2009 (UTC)[ответить]
Вообще-то показана возможность достяжения решения перцептроном. А это не одно и тоже. В обсуждении избраных статей, предлагалось разделить рисунок и прокомментировать таблицу - вот это имеет смысл, согласен. SergeyJ 23:25, 19 января 2009 (UTC)[ответить]

Насчёт весов S—A[править код]

Почему-то год назад я подумал, что в элементарном перцептроне допустимы S—A коэффициенты 1 или 0. По-видимому, я ошибся; правильно ли я сейчас понимаю, что здесь могут быть значения +1, 0 и −1? — Александр Крайнов 21:46, 19 января 2009 (UTC) Да, именно так, если 0 считать отсутствие связи. SergeyJ 23:23, 19 января 2009 (UTC)[ответить]

К вопросу о правильности написания заимствованных слов[править код]

Автор статьи никак не пояснил свою мысль о том что, якобы, перцептрон это единственно правильно, а всё остальное неправильно, отсылки к статьям специалистов неязыковедов никак не проясняют ситуацию, ведь эти специалисты-технари не разбираются в языковых нормах. Солидные источники, такие, как БСЕ, Словарь иностранных слов и другие, придерживаются мнения, что правильно персептрон, в Гугле: перцептрон — 4040 ссылок, персептрон — 7110

Vladimir-sergin 17:21, 25 января 2009 (UTC)[ответить]

Я пояснял это не однократно: "Всем известно, что данное искажение появилось от перевода книги Минского, которое перевели именно так "Персептроны" (оригинал назывался Perceptron). Речь же в статье идет о книге Розенблатта, где ни разу не написано персептрон, посмотрите оригинал книги. Так же ознакомтесь с ссылками на английском - там ни разу не пишут Perseptron. Ссылки на популярное заблуждение в русском интернете и не граммотных преподователей курсов - не аргумент, уверен, что в тех курсах еще неправильно описан сам перцептрон !" Если хотите формально, делайте транскрипцию от латинского слова получите перцептрон, транскрипция с английского спорна, далее сделайте транскрипцию с немецкого. Как раз таки " специалисты-технари" разбираются в языковых нормах получше т.н. языковедов, которые не знают смысла этого слова и как оно пришло в русский язык. SergeyJ 04:02, 26 января 2009 (UTC)[ответить]

Полагаю, что письменность зародилась позже чем звуковое воспроизведение речи. Речь идет не о правильном переводе или транскрипции слова( ср. спутник-sputnik-спьютник), а о нормах создания новых слов русского языка. Большинство заимствованных слов адаптировано для удобства произношения( revolution- революция). Мне лично больше нравится персептрон. А об перцептрон язык сломать можно. Best regards. Newel. 217.19.211.89 13:10, 28 января 2009 (UTC)[ответить]

Вы выбрали неудачный пример. Почему тогда слово "революция" было заимствовано именно в такой форме, а, скажем, не "револисиа" или "революсьон", которые тоже удобно читаются (даже как-то элегантней)? (Кстати, слово спутник читается в английском как "спатник" или как в оригинале, "спутник".) И мне больше нравится "перцептрон". Это слово было создано уже давно, и даже за 6 лет до "персептрона". — Александр Крайнов 09:05, 29 января 2009 (UTC)[ответить]
Удачнее не бывает.Потому что См. выше.И Ваши слова подтверждают это. ["револисиа" или "революсьон", которые тоже удобно читаются ]во Франции,и "неудобно" произносятся по-русски.:) Best regards.小心的.Newel 217.19.211.89 08:30, 30 января 2009 (UTC)[ответить]
Кстати:В латинском языке C обозначает /tʃ/ (как русское Ч) перед AE, OE, E, I и Y (если перед C не стоит S или X, которые дают в сочетании звук /sʃ/). Например: centum («сто») произносится как /tʃentum/ в отличие от классического /kentum/; Osci («оски») произносится как /osʃi/ в отличие от классического /oski/; [1].Best regards.小心的.Newel. 217.19.211.89 11:14, 30 января 2009 (UTC)[ответить]
o_0 Почему вы так решили??? Латинское -с- в таких случаях чатается как [ц], а не [ч], это же не итальянский. Кстати, надо бы наконец удалить эту статью. — Александр Крайнов 14:32, 31 января 2009 (UTC)[ответить]
Похоже автор перепутал персептрон с перцептроном.
Ссылка 1:Толковый словарь по искусственному интеллекту
/ Авторы-составители А. Н. Аверкин, М. Г. Гаазе-Рапопорт, Д. А. Поспелов. — М.: Радио и связь, 1992. — 256 с. :
ПЕРЦЕПТРОН.Устройство, построенное по нейробионическому принципу.

БСЭ:http://slovari.yandex.ru/dict/bse/article/00058/74300.htm?text=Perceptron Персептрон,перцептрон (англ. perceptron, нем. Perzeptron, от лат. perceptio — понимание, познавание, восприятие), математическая модель процесса восприятия. Если никто не против, я меняю заголовок статьи. My best regards.Newel. 217.19.211.89 07:23, 29 января 2009 (UTC)[ответить]

Против. Очень даже. Автор ничего не перепутал, это одно и то же. Случай заголовка спорный, но я считаю, что правильный вариант "перцептрон", в первую очередь, из-за его латинского происхождения от "перцепцио". — Александр Крайнов 09:05, 29 января 2009 (UTC)[ответить]
Хорошо, менять не буду.Пусть "неправильно" будет на совести автора статьи. На мой взгляд это слишком претенциозно. Думаю, на этом месте должно быть "общепринято".Best regards.Newel. 217.19.211.89 08:35, 30 января 2009 (UTC)[ответить]
  • Оба варианта одинаково допустимы в русском языке, я специально консультировался по этому вопросу, разные словари приводят разные варианты, и это не такое уж необычное явление, таких примеров, когда слово заимствовано в двух вариантах, можно привести множество. Вообще, нужно сказать, что подгонка слов из английского на русский, это очень сложная задача, которую не всегда можно решить однозначно, используется или транслитерация или фонетическая транскрипция или (чаще всего) гибрид этих методов. Вовсе нет никакого правила, по которому английская C(Си) должна передаваться как русская С (Эс), даже в тех случаях, когда в английский слово пришло из латинского, например: офис (др. вариант оффис), англ. office, лат. officium, в то время, как родственное слово официальный пишется через Ц. Никому не придёт в голову называть неправильными такие слова, как продюсер, интерфейс, ресивер и др.
  • В дискусии речь зашла несколько не о том, нельзя говорить о том, какой из двух вариантов правильный, они оба правильны, а неправ Сергей Яковлев, без каких либо доказательств, утверждающий что один из вариантов неправильный, в самом деле, в качестве доказательства он отсылает к книге Розенблатта, где ничего не говорится о недопустимости выражения «персептрон», вполне естественно, что в этой книге используется только один из вариантов написания, было бы весьма странным, если бы в одной и той же книге попеременно использовались оба варианта.
  • Итак, поскольку нет явных и однозначных доказательств о неправильности слова «персептрон», напротив, факты свидетельствуют и о фактическом использовании разных вариантов и об их легализации разными словарями, следует признать, что утверждение о неправильности, как минимум, не может считаться проверенной и доказанной информацией, подача читателю такой информации противоречит целям Википедии
  • À propos, что касается грамотности, мне очень понравилось выражение из сообщения Сергея ...не_граммотных преподователей ....

Vladimir-sergin 07:16, 31 января 2009 (UTC)[ответить]

Хорошо, спасибо, за конструктивную критику и уточнение, будем считать что компромис достигнут, на самом деле в первой версии, у меня не было столько строгой оговорки "неверно", и шла отсылка на то, что в классической литературе, кроме только перевода книги Минского - используется перцептрон, где явно была сделана опечатка ... но раз уж эта опечатка так прижилась - пусть будет как вы уточнили. На сем считаю обсуждение законченным. SergeyJ 11:36, 31 января 2009 (UTC)[ответить]
Ладно, я тогда сегодня ночью уточню формулировку сноски, тем более ещё кое-что подправить нужно будет. — Александр Крайнов 14:32, 31 января 2009 (UTC)[ответить]

Примечания[править код]

  1. искажение в результате перевода с английского

На Ваш запрос: статья Перцептрон мне нравится, но есть несколько неточностей. Во-первых, и метод обучения, и теорема сходимости были известны до Розенблатта. Это релаксационные методы решения линейных неравенств и теоремы о их сходимости. См., например, одну из более ранних публикаций: Agmon S. The relaxation method for linear inequalities. Canad.J.Math., 1954, 6, №3, pp. 382-392. Есть и еще - но требуется найти и включить это в статью. С точки зрения алгоритмов обучения (настройки весов) задача о перцептроне - это система линейных неравенств на коэффициенты. В этом контексте до Розенблатта было сделано больше, чем им.

Во-вторых, описывая обратное распространение, вы упоминаете одну фамилию - Руммельхарта. Это достойный человек с трагической судьбой, но все же в очереди за приоритетом его команда - где-то четвертая, после Пола Вербоса, А. И. Галушкина, Ле Куна; рядом с Охониным и Барцевым. Если Вам интересно - продолжим обсуждение. А пока достаточно.


Да, Адалин был тоже сделан в железе в 1960 - тут тоже надо точнее.

С уважением--Agor153 21:54, 13 февраля 2009 (UTC)[ответить]

Да, детали можно быдет пообсуждать ... Но давайте только не путать, метода обучения перцептрона и теоремы сходимости перцептрона до Розенблатта небыло :) Именно потому, что небыло перцептрона :) Я могу согласится, что было нечто похоже - возможно в математике, но к перцептрону это имеет косвенное отношение ... Если у Вас эта статья - то дайте ссылку я ознакомлюсь ... Обратное распространение - можете уточнить, я в курсе, что Руммельхарт не первый - но мне это мало интересно ... SergeyJ 03:57, 14 февраля 2009 (UTC)[ответить]

Александр Крайнов - я надеюсь Вы не обиделись, что я влез в ваш разговор ... SergeyJ 04:00, 14 февраля 2009 (UTC)[ответить]

Ну, что же, буду теперь знать, что каждое применение математического метода есть новый метод. Можно складывать яблоки - и это не то же самое, что складывать апельсины. Линейные неравенства в задаче обучения перцептрона отличаются (по SergeyJ) от линейных неравенств в других задачах. До сего дня мне чудилось, что математика хороша именно универсальностью, и что уравнения про котов вполне могут быть теми же самыми, что уравнения про китов ;). Простите, я погорячился.
О релаксационном методе. Первая известная мне публикация (чуть отличается, но по существу содержит все необходимое) - 1938 год:
  • 1. Cimmino G., Calcolo approssimato per soluzioni dei sistemi di equazioni lineari. La Ricerca. Scientica XVI, Series II, Anno IX (1938), 1:326-333.
В законченном виде в 1954 году:
  • 2. Agmon, S. The relaxation method for linear inequalities. Canadian J. Math. 6 (1954), 382-392.
  • 3. Motzkin T.S. and Sсhoenberg J.J., The relaxation method for linear inequalities, Canad. J. of. Math., 6 (1954), 393-404.
В культуре, обучение перцептрона и соответствующие теоремы рассматриваются как частные случаи релаксационных методов решения линейных неравенств и соответствующих теорем сходимости. Полно современных обзоров. Вопросы?--Agor153 11:38, 14 февраля 2009 (UTC)[ответить]
1. В чем связь с релаксационными методами и перцептрона ? Есть ли связь релаксационного и градиентных методов ? Какие ?
2. Можете ли вы в двух предложениях сформулировать алгоритм релаксационного метода, который по вашему является более общим случаем перцептронного обучения. Покажите какие именно должны быть условия, чтобы получился бы именно необходимый нам частный случай ? Рассматривался и анализировался именно этот частный случай ? Как он формулируется ?
2. Давайте определимся с главным - использует ли Розенблатт данные методы или все же он дает совершенно не зависимое доказательство и совершенно другой метод на основании других мат. выкладок?
3. Причем здесь решение системы неравеств и перцептрон ? Где иммено это решение ? Исчерпывается ли этим весь механизм перцептрона ?
(давайте только детально разбиремся, если уже зашел разговор ... и тогда я вам попробую показать где тут киты, а где коты ... если и есть аналогия, то примерно такая же что говорить что ОТО была изобретена вместе с тензорным исчислением и что это одно и тоже; Одно дело складывать, а другое дело складывать и умножать по определенным правилам тем самым из простых операций сложения и умножения вводя матричные операции ... ). SergeyJ 13:11, 14 февраля 2009 (UTC)[ответить]
Еще - посмотрите статью о теореме сходимости перцептрона, если Вы заметили там не одна - а 9 теорем. Какие именно по вашему уже были до Розенблатта ? Все ? или только одна из них ? Какая ? Дайте соответствующие ссылки ... SergeyJ 13:15, 14 февраля 2009 (UTC)[ответить]
(Да, наверно лучше перейти на страницу обсуждения статьи Теорема сходимости перцептрона ) SergeyJ 13:24, 14 февраля 2009 (UTC)[ответить]
Извините, SergeyJ, за задержку. Существеная часть теоремы о сходимости перцепртрона состоит в следующем. Пусть в пространстве задано векторов . Требуется найти такой линейный функционал , что для всех векторов . Предлагается релаксационный метод решения этой задачи. В качестве начального приближения для выбирается, например, 0 (возможен и более удачный выбор, например, сумма ). Далее для каждого (текущего) вектора вычисляется . Если , то переходим к следующему вектору, если же , то заменяем . Здесь - шаг обучения (он может монотонно уменьшаться, но так, чтобы сумма шагов расходилась). Подаются векторы данных, например, циклически (важно, чтобы для каждый вектор последовательности появлялся хотя бы раз в течение заданного числа итераций). Теорема сходимости: если решение существует, то описанный релаксационный метод сходится за конечное число шагов. (Добавление: если же решения не существует, то метод "зацикливается", то есть возвращается сколь угодно точно к уже встречевшемуся в ходе вычислений направлению.)
Классификация на два класса тривиально получается из описанной задачи.
Вот такое утверждение (с точностью до косметических изменений, диктуемых вкусами разных авторов) и называется теоремой сходимости перцепртона/релаксационных методов. По существу, это Теорема 4.
Да, если позволите, Сергей, я не буду Вас ни в чем убеждать и спорить. Статья мне нравится. Вы детально изучили книгу Розенблатта (и знаете ее лучше многих специалистов).--Agor153 22:10, 16 февраля 2009 (UTC)[ответить]
Спасибо, за такую оценку и показанную связь. Давайте спорить не будем, а просто поговорим :) ... Да, если речь ТОЛЬКО о 4 теорема, то действительно все выглядит ОЧЕНЬ похоже. Если бы не ряд существенных отличий. Да, если брать ТОЛЬКО второй слой перцептрона, то он действительно решает описанную вами задачу (к моему стыду я плохо понимаю, что такое линейный функционал, но думаю это тоже, что система линейных неравенств соответствующего вида?). И действительно метод коррекции с ошибкой похож на то, что вы описали ... единственно, мне сложно оценить какое тут подкрепление , если l - это весовой коэффициент (?), а - это активность А-элемента (0 или 1), то доказательство в теореме 4 проведенно для шага обучения =+1 или =-1 в зависимости от желаемой реакции. У меня же возникают серьезные сомнения, что у вас идет речь именно об этом. У Вас скорее идет речь об т.н. системе подкрепления с управлением по стимулам (см. определение 40 в книге), т.е. знак приращения зависит, только от знака входного вектора и не зависит от желаемого результата - а для такого варианта в теореме 6 доказано, что сходимость можно не получить. Фраза "он может монотонно уменьшаться, но так, чтобы сумма шагов расходилась" сильно математична, и наверное исправляет ситуацию, но не дает практических рекомендаций какой должен быть шаг, и главное с каким знаком (у вас вроде как только положительный) ... поэтому думаю здесь есть ряд отличий .... но все это сравнительно мелочи ... Доказательство, если можете дайте ссылку, иначе мне сложно оценить на сколько и чему уже существовало ... Уверен, что оно ни как не связано стем доказательством, которое дает Розенблатт. Во-первых, у Розенблатта идет речь о любых начальных условиях, а во вторых о необходимых и достаточных условиях ИМЕННО при таком устройстве перцептрона, которое у него есть (а он состоит не только с второго слоя) ... хотя вполне ожидаемо, что в ходе доказательства 4 теоремы - может возникнуть как промежуточный этап по ходу доказателства - доказать то, что вы выше описали ... но опять же не видя доказательства мне сложно утверждать ... В любом случае, тот комплекс доказательств представленный Розенблаттом - важен и с избытком покрывает описанную вами задачу ... показывает ряд возможных вариантов и указывает, что есть необходимо, а что нет, чего уверен не дает изучение релаксационных методов ... SergeyJ 04:29, 17 февраля 2009 (UTC)[ответить]
Поясните пожалуйсто подробнее запись ... я так понимаю, что внизу так обозначается некая норма вектора ... но что это такое ? на нашем примере пожалуйсто ... никак не пойму ... ? SergeyJ 04:38, 17 февраля 2009 (UTC)[ответить]
По поводу вашего добавления и зацикливания. Как раз задачей первых трех теорем и еще некоторых выкладок - является определение того, при каких условиях решение будет ВСЕГДА существовать, а значит и всегда достижимо перцептроном. А это согласитесь не мало, при том, что связи первого слоя выбираются случайно. SergeyJ 04:47, 17 февраля 2009 (UTC)[ответить]

Оформление[править код]

А зачем в разделах, где есть ссылки на main-статьи, дублируется информация из них? Почему туда не перенесена? И почему есть и Источники, и Примечания для сносок? В чём их принципиальная разница? Fractaler 14:41, 7 июля 2009 (UTC)[ответить]

  • Дублируется информация в тех статьях, здесь лишь краткая выжимка (раньше здесь было все полностью), т.е. наоборот, надо развивать те дополнительные статьи. Источники - это источники, указание из какой литературы взято, а примечания - это примечание - дополнительные пояснения. SergeyJ 15:44, 7 июля 2009 (UTC)[ответить]
  • Если пользователь догадается глянуть в головной раздел, только тогда он узнает, что есть основная, полная статья. А так будет довольствоваться только этой выжимкой. В Примечании есть сноска " Вариант «перцептрон» — изначальный, используется в переводе книги Розенблатта (1965), также в справочнике: Толковый словарь по искусственному интеллекту / Авторы-составители А. Н. Аверкин, М. Г. Гаазе-Рапопорт, Д. А. Поспелов. — М.: Радио и связь, 1992. — 256 с. Вариант «персептрон» встречается чаще, он возник при переводе книги Минского и Пейперта (1971); см. также: Энциклопедия кибернетики. Том 2. Мих—Яч. — Киев: Гл. изд. УСЭ, 1974. — С. 156—158." - почему не в Источниках? Или по "М. М. Бонгард считает эту задачу наисложнейшей для проведения гиперплоскости в пространстве рецепторов". Fractaler 16:10, 7 июля 2009 (UTC)[ответить]
  • Что-то я не понимаю, о какой выжимке идет речь ? Почему глянуть в головной раздел - надо догадываться, когда хочешь узнать подробнее ? - это же самое логичное ... Сноска про написание слова не относится к сути статьи, поэтому оно логичнее в примечаниях ... Про Бонгарда, это скорее пояснение, которого нет в статье ... SergeyJ 18:11, 7 июля 2009 (UTC)[ответить]
  • Моделируем поведение пользователя: 1) Зашёл на страницу 2) Глянул на содержание 3) Перешёл по ссылке на подраздел 4) Изучил его весь и, например, всё, что ниже 5) Каким то образом добрался до начала раздела подразделов 6) Увидел main-ссылку на полную статью ("гудок" - ругается, что раньше на неё не вышел, а только потерял время, читая, возможно, устаревшие или недосмотренные сведения) 7) Перешёл по ссылке на главную статью 8) Занавес (ту би континья). Если есть главная статья, зачем давать из неё части с подразделами? Fractaler 11:29, 13 июля 2009 (UTC)[ответить]
    См. правила оформления статей, в частности Википедия:Размер_статей S.J. 14:06, 13 июля 2009 (UTC)[ответить]

Один я обратил внимание, что в "Описание на основе сигналов" два графика нарисованы с ошибкой - см. определение функции: каждому значению x соответствует единственное значение y. Сейчас же присутствует вертикальная красная линия. Нужно нормально перерисовать графики, см. например Функция_sgn(x).124.43.238.214 14:16, 21 марта 2012 (UTC)[ответить]

Неверно нарисован перцептрон для решения задачи XOR[править код]

вес третьей связи S-A для сигнала x должен быть -1, в противном случае на входную пару 1 - 1 и 1 - 0 выдаются значения -2 и -1 соответственно, что не верно, пожалуйста, исправьте.

217.118.66.73 21:09, 12 августа 2009 (UTC)VenomBlood[ответить]

  • Вы не правы, там ошибки никакой нет, на пары 1 - 1 и 1 - 0 выдаются значения -1 и +1 соответственно. Думаю вы не учли то, что А-элементы пороговые с порогом 0.

S.J. 06:23, 13 августа 2009 (UTC)[ответить]

Проблема в терминологии, я не увидел где в статье указано, что в этом примере A (и, так понимаю, R) элементы - пороговые (для читающего статью человека это не очевидно). В самой статье не раз упоминается о проблемах в терминологии, может всё же стоит тогда выложить дополнительные пояснения? VenomBlood 18:18, 13 августа 2009 (UTC)VenomBlood[ответить]

  • Там все указано : "A-элемент активизируется, как только количество сигналов от S-элементов на его входе превысило некоторую величину θ. Формально A-элементы, как и R-элементы, представляют собой сумматоры с порогом, то есть одиночные нейроны." - да и в перцептроне по другому не бывает, вначале в определении указано с пороговой передаточной функцией. S.J. 20:07, 13 августа 2009 (UTC)[ответить]

Я понимаю, речь не о том, около картинки с XOR нигде не написано чему равен θ, можно сконструировать не один вариант реализации XOR, но без указания порогов активации Неподготовленному читателю будет трудно это понять, это не обоснованная просьба одобрить добавление одной строчки о свойствах перцептрона? VenomBlood 20:34, 13 августа 2009 (UTC)VenomBlood[ответить]


Интерполяция[править код]

Как я понимаю, персептрон, и вообще нейронная сеть, используются для интерполяции некой неизвестной функции. Саму сеть, как однослойную, так и многослойную, легко представить в виде многочлена. При обучении происходит уточнение коэффициентов этого многочлена. Не стоит ли внести в статью раздел об этом и сравнение, например, с интерполяционным многочленом Лагранжа? 92.61.64.207 17:18, 25 марта 2012 (UTC)[ответить]

Нельзя многослойную представить в виде многочлена. В отличие от многочлена Лагранжа они не строят кривую точно проходящую через все точки. Можно сравнить, но моему этому место в другой статье про теорию обучения машин вообще. Здесь статья про один из многих методов, есть и другие методы с которыми тоже можно сравнивать. -- X7q 20:17, 25 марта 2012 (UTC)[ответить]
Вот подумайте что бы вы хотели написать в разделе со сравнением этих методов, и к какой статье получившийся текст больше подходит. Наверное что-нибудь про сложность моделей напишите? (П.Л. строит очень сложные модели с N параметрами при N данных точках, минимизирует эмпирический риск до нуля, но страшно оверфититься... перспетроны попроще, число параметров сильно меньше, модель более constrained, меньше оверфитится. - Вот это все по моему тема другой статьи). -- X7q 20:28, 25 марта 2012 (UTC)[ответить]

Фотографии реальной конструкции[править код]

По тексту очень сложно понять какая была реальная конструкция машины. Сколько элементов было внутри, как они выглядели. Посмотреть бы фотографии что внутри. Может можно обратиться в какой-то музей с этой просьбой? Хотелось бы видео подробное увидеть как работает машина. Текстом пишут, что фотоприемники соединяются с ассоциативными элементами случайно. Это непонятно. Также непонятно откуда в машине берутся весовые коэффициенты. Прямо в музей написать где хранят ее. Реально разобраться хочется. Не обязательно добавлять эту информацию в вашу статью. Пусть ее хоть где-нибудь выложат из музея.

Оказывается Марк 1 - это несколько шкафов с человеческий рост, а не маленькая коробочка у вас на фотографии. Ячейками памяти в нем служат переменные резисторы, хранящие весовые коэффициенты или вероятностные коэффициенты называйте как угодно. Принцип распознавания объектов основан на вероятностных комбинациях групп точек на экране с жесткой координатной привязкой, поэтому форма объектов не анализируется.

То есть например записывая математические формулы словесно:

Если горит эта группа из трех точек, то на 30 процентов вероятно это треугольник, или на 5 процентов вероятно это круг.

Если горит другая группа из 10 точек, то на 10 процентов вероятно это треугольник, или на 20 процентов вероятно это круг.

При таком методе символы разного размера, смещенные из центра, повернутые распознаваться не будут. Будут распознаваться символы заполняющие весь экран с небольшими флуктуациями.

Это неправда, что способ группировки точек не влияет на распознавание и может быть любой. Распознавание мужских и женских лиц этим методом просто комедия. 93.181.247.221 18:01, 17 июля 2016 (UTC)[ответить]

После "Марк-1" перцептроны были?[править код]

Из определения складывается ощущение, что машина Розенблатта 1960 года - единственный и неповторимый перцептрон. Сформулировано так, будто перцептрон как реальное изделие - только это и ничто иное. Но ведь нет? Может быть, стоило бы написать: "...впервые реализованная в виде электронной машины «Марк-1»"?
213.24.127.234 22:20, 7 мая 2017 (UTC)MichaelMM[ответить]

А почему это избранная статья?[править код]

188.128.68.166 16:39, 18 марта 2024 (UTC)[ответить]