У рачунарству, онлајн машинско учење (енг. Оnline machine learning) јесте метод машинског учења у коме подаци секвенцијално постају доступни, па се затим користе за ажурирање предиктора будућих података на сваком кораку, насупрот техника офлајн[1] машинског учења које генеришу предикторе учењем на целом скупу података за обуку. Онлајн учење је уобичајена техника која се користи у областима машинског учења где је немогуће претраживање целог скупа података, што стога захтева потребу за изузетно напредним алгоритмима. Такође се користи и у ситуацијама када је неопходно да се алгоритам динамички прилагођава новим обрасцима у подацима или када се сами подаци генеришу као функција времена, нпр. предвиђање цена акција. Онлајн алгоритми учења могу често бити склони грешкама.
Уводна прича
У надгледаном машинском учењу, задатак је учење (обрада) функције где је простор улаза, а простор излаза тј. скуп вредности функције, која добро предвиђа конкретне инстанци чије је појављивање дато функцијом расподеле на . У пракси, ученику никада није позната расподела вредности . Уместо тога ученик обично има приступ конкретном скупу инстанци . У овом случају, такозвана функција грешке дата са јесте функција таква да мери разлике између предвићених вредности и правих вредности . Кључна ствар јесте избор функције , где је простор функција који се назива простор хипотеза, тако да је функција грешке минимализована. У зависности од статистичког модела могу се дефинисати разни облици функције грешке, које ће касније водити разним алгоритмима машинског учења.
Статистичко виђење онлајн машинског учења
У статистичким моделима учења, за узорак се претпоставља да је изабран из одговарајуће расподеле , па је даље циљ минимизовати очекивани "ризик":
Надаље је циљ оценити функцију методом емпиријске минимизације ризика или регуларизоване емпиријске минимизације ризика (обично метод Tikhonov-e регуларизације). Одабир функције грешке у овим случајевима доводи до неколико добро познатих алгоритама као што су метода најмањих квадрата и SVM метод машинског учења. Чисто онлајн метод машинског учења у овом случају би своја предвиђања засновао само на основу новог улаза , тренутно најпрецизнијег предиктора и специфичних, до тог корака сачуваних, додатних информација (за чување оваквих информација обично је резервисан фиксни меморијски простор, независан од количине доступних података). За разне формулације проблема, на пример за нелинеарни метод језгара право онлајн машинско учење није могуће спровести. Ипак неку врсту модификованог односно хибридног онлајн машинског учења ипак је могуће спровести, рецимо рекурзивним алгоритмом када зависи од и свих претходних тачака . У овом случају просторни захтеви алгоритма више нису гарантовано константни с обзиром да је алгоритму сада неопходно да чува вредности свих претходних тачака, али ће таквом решењу врло вероватно требати мање времена за извршавање додавањем нових тачака односно података у поређењу са горепоменутим офлајн машинским учењем примењеним на исти проблем. Честа стратегија за превазилажење претходно наведених проблема јесте машинско учење комбиновањем претходних онлајн и офлајн метода коришћењем мини серија, које процесирају мале групе од података у једном кораку. Претходно се може сматрати као псеудо-онлајн учење када је много мање од укупног броја тачака тј. података за обраду у општем случају. Технике мини серија машинског учења се користе када имамо вишеструки пролаз кроз податке у процесу обраде, у циљу добијања оптимитзованих верзија алгоритама аутоматског учења.
Једноставан уводни пример линеарна метода најмањих квадрата користи се да објасни ширину идеја које се провлаче кроз корене онлајн машинског учења. Ова математичка идеја јесте довољно општа да се примени у разним другим проблемима, нпр. са осталим конвексинм функцијама грешке.
Учење у серијама
Ако у надгледаном машинском учењу за функцију грешке узмемо квадратну функцију, минимизација грешке своди се на минимизацију квадратне функције.
где је
.
Нека буде матрица и нека је матрица циљаних вредности након првих тачака.
Претпоставимо да је матрица коваријансе[2] инверзибилна (иначе се на њу примењују одређени методи регуларизације), најбоље решење линеарним методом најмањих квадрата дато је са
.
Даље, рачунање матрице коваријансе повлачи сложеност , инвертовање матрице повлачи сложеност , док је остало множење сложености , дајући тако укупну сложеност целог процеса . Када је укупан број доступних тачака и када треба поново рачунати решење након додавања сваке нове тачке , изложено решење ће имати укупну сложеност . Приметимо да ако у меморији чувамо матрицу коваријансе , тада њено ажурирање на сваком кораку захтева само додавање , које је сложености , што умањује укупну сложеност на , али користи додатни простор реда величине да чувамо .[3]
Онлајн машинско учење: рекурзивна метода најмањих квадрата
Рекурзивни алгоритам методе најмањих квадрата разматра проблем методе најмањих квадрата из угла онлајн машинског учења. Исти се може приказати на следећи начин. Нека је и . Решење линеарним методом најмањих квадрата дато у претходном одељку може бити израчунато следећим итеративним процесом:
Претходни итеративни алгоритам може бити доказан методом математичке индукције по .[4]. Претходни доказ показује да је .
Сложеност у корака овог алгоритма јесте , што је за ред величине ефикасинје од одговарајућег претходно изложеног алгоритма за учење у серијама. Просторни захтеви сваког -тог корака овде се своде на чување матрице , што је константа . У случају када није регуларна тј. инверзибилна, разматра се функција грешке . Даље је релативно једноставо показати да наш алгоритам ради са почетним условом , и итерацијама .[3]
где и , долазимо до нечега што се назива стохастички метод градијентног спуста. Овај алгоритам има сложеност за корака редуковану на . Просторни захтеви овог алгоритма у сваком -том кораку су константни .
Било како било, величину корака треба пажљиво изабрати тако да се минимизује очекивана грешка. Избором корака може се показати конвергенција претходног итеративног низа u просечном броју корака . Овај проблем представља специјални случај области стохастичке оптимизације, добро познате подобласти оптимизације.[3]
Постепени стохастички метод градијентног спуста
У пракси могуће је изводити вишеструке стохастичке пролазе (који се у том случају називају циклуси или епохе) кроз податке. Овако модификовани алгоритам се назива постепени стохастички метод градијентног спуста и одговара следећој итеративној формули:
.
Основна разлика у односу на претходно изложени метод јесте та што у овом случају низ се користи да се одлучи која тачка ће бити посећена у -том кораку. Тај низ може бити стохастичki или детерминистички. Број итерација више није једнак броју тачака (свака тачка може бити коришћена више него једном). Ова метода се може искористити да минимизује функцију ризика[6] Технике сличне овој могу бити корисне када се узимају у обзир функције грешке састављене од веома великог скупа података.
Кернел методе
Кернели се могу користити за проширивање горенаведених алгоритама на непараметрарске моделе (или моделе где параметри формирају простор бесконачне димензије). Одговарајући поступак више неће бити у пуном смислу метод онлајн машинског учења, и уместо тога укључиче чување свих података, али ће и даље бити доста бржи од метода грубе силе. Наредна дискусија је ограничена на случај квадратне функције грешке, али се једноставно може проширити на било који случај конвексне функције грешке. Једноставном математичком индукцијом[3] могуће је показати да ако је матрица података а резултат алгоритма након -тог корака стохастичког метода градијентног спуста, тада:
где је и додатно низ је дат рекурзивном дефиницијом:
и
Приметимо да је стандардни кернел на , и предиктор јесте облика
.
Даље, ако општи кернел означимо са и ако је предиктор сада облика:
тада ће доказ аналоган претходном показати да се предиктор који минимизује грешку добија променом горње рекурзије на
.
Горенаведени израз захтева чување свих података за ажурирање . Укупна временска сложеност претходне рекурзије када се израчнавања врше за сваку -ту тачку је , где хе сложеност израчунавања вредности кернела на пару тачака домена.[3]. Дакле, употреба форми омогућила је да се пође од простора параметара коначне димензије и да се дође до евентуално бесконачнодимензионог простора презентованог кернелом и уместо извођења рекурзије на простору параметара , чија је димензија једнака димензији посматраних података. Теоријски, претходно је последица теореме о репрезентацији (теорема математичке статистике).
Прогресивно учење
Прогресивно учење је ефективан модел учења који симулира процес учења код људи. То је процес континуираног учења директно на основу искуства. Техника прогресивног учења (енг. PLN) у машинском учењу може учити нове класе/лабеле динамично, у покрету.[7] Иако онлајн машинско учење може обрађивати нове узорке података који стижу секвенцијално, оно не може обрађивати нове класе података које се динамички уводе у сам модел. Парадигма прогресивног учења је независна од броја ограничења у класама и може учити тј. обрађивати нове класе док истовремено задржава сва знања из претходно обрађених класа. Када год се наиђе на нову класу података (класу непознату алгортму, ону коју до сада још није сусрео) класификатор се аутоматски преобликује и параметри се обрађују на начин којим се задржава досадашње знање. Овакве технике су погодне за апликације у пракси, где је број различитих класа често непознат и потребно је учење у реалном времену.
Онлајн конвексна оптимизација
У техникама онлајн конвексне оптимизације (енг. ОСО) скуп хипотеза и функција грешке су присиљено конвексни да би алгоритам добио више простора за учење. Модификован алгоритам сада има следећи облик:
За
Алгоритам добија улаз
Алгоритам рачуна из фиксног конвексог скупа
Околина враћа конвексну функцију грешке .
Алгоритам процењује направњене погрешке и ажурира модел.
На пример, размотримо онлајн машинско учење кроз линеарну апроксимацију методом најмањих квадрата. Овде тежински вектори долазе из конвексног скупа , док је конвексна функција грешке дата са . Приметимо узгред да је у овом случају имплицитно послато кроз .
Мећутим, неки проблеми онлајн машинског учења не могу се природно уклопити у ову методу. За пример посматрајмо онлајн класификацију код које домен и функција грешке нису конвексни. У оваквим ситуацијама користе се две основне технике конвесксификације: рандомизација и замена функције грешке.
Неки од једноставних онлајн метода конвексне оптимизације алгоритама су:
Алгоритам прати лидера (енг. FТL)
Најједноставнији метод учења јесте избор (у тренутном кораку) хипотезе која има најмање гутитака у свим претходним корацима. Овај алгоритам носи назив Алгоритам прати лидера (енг. Follow the leader) и дат је једноставном формулом за корак са:
.
На овај метод може се гледати као на похлепни алгоритам. У случају онлајн квадратне оптимизације (где је функција губитка дата са ), може се показати да границе регресије расту са . Какогод, овај метод се не може применити на друге важне фамилије модела машинског учења као сто је онлајн линеарна оптимизација. Да би се то урадило, овај алгоритам се модификује тако што се изврши такозвана регуларизација.
Модификовани алгоритам прати лидера (енг. FТRL)
Модификовани алгоритам прати лидера представља природну модификацију претходног алгоритма која се додаје да стабилизује понашање истог, и да обезбеди боље границе регресије. Функција регуларизације дата је са и учење је дато у кораку t као:
Као посебан пример претходног размотримо случај онлајн линеарне оптимизације где је функција губитка дата у облику . Такође, имамо . Претпоставимо да је функција регуларизације одабрана за неки позитиван број . Под оваквим претпоставкама, може се доказати да итеративни процес минимизације има слецећи облик:
Приметимо да претходно може бити записано и као , што изгледа баш као онлајн метода градијентног спуста.
Ако је уместо тога S неки конвексан подскуп од , S би требало пројектовати, што доводи до промене правила ажурирања
Овај алгоритам познат је и под именом лења пројекција, због тога што вектор акумулира градијент. Такође, познат је и под именом двоструки Нестеров средњи алгоритам. У овом случају, случају линеарне функције губитка и квадратне регуларизације, граница регерије је у оквирима сложености , и стога просечна регресија иде ка 0 што и желимо.
Остали алгоритми
Квадратно регуларисани алгоритам пратње лидера води до лење пројекције градијентног метода као што је описано у претходним пасусима. Да би се горе описано користило за произвољне конвексне функције и регуларизаторе може се користити слична модификација. Други алгоритам се назива предвиђање стручним саветима. У овом случају скуп хипотеза састоји се од функција. Дистрибуција над експертских функција се одржава, и предвиђање се врши узимањем узорака из ове дистрибуције. У слушају Еуклидске регуларизације, може се показати да је граница регресије дата са , сто може бити побољшано до ганице ако се користи боља функција регуларизације.
Интерпретације онлајн машинског учења
Парадигма онлајн машинског учења интересантно има различите интерпретације у зависности од избора метода учења, од којих свака има различите импликације у погледу предиктивног квалитета секвенце функција . За ову дискусију користи се стохастички алгоритам градијентног спуста. Као сто је горе наведено, његова рекурзија дата је са
.
Прва интерпретација разматра метод стохастичког алгоритма градијентног спуста примењеног на проблем минимизације очекиваног ризика дефинисаног раније.[8] Заиста, у случају бесконачног стримовања односно дотока података, као у примеру претпостављено је да исти долазе из расподеле , за низ градијената у претходним итерацијама претпоставља се да је узорак стохастичких процена градијената очекиваног ризика и стога је могуће применити резултате метода стохастичког градијентног спуста за ограничење девијације , где је минимизатор за .[9]. Ова интерпретација је такође валидна и у случају коначног скупа доступних података. Иако са вишеструким пролазом кроз податке градијенти више нису независни, и даље се претходни резултати могу користити у неким ситуацијама.
Друга интерпретација се примењује на случај коначног скупа података и разматра се Стохастички градијентни спуст као пример методе postepenog градијентног спуста.[6] У овом случају посматра се емпиријски ризик дат са:
Како су градијенти у овој методи такође стохастичке процене градијента од , тумачење овог метода је такође повезано са методом стохастичког градијентног спуста, али се примењује у циљу минимизовања емпиријског ризика уместо минимизације очекиваног ризика. Како се оваква интерпретација концентрише на емпиријски ризик а не на очекивани ризик, вишеструки проласци кроз податке су дозвољени и заправо воде до строжих граница девијације , где је минимизатор од .
Имплементације онлајн машинског учења
Vowpal Wabbit: Отворени софтвер, брз онлајн систем машинског учења што је значајно за подршку бројним редукцијама машинског учења, подржавајући избор различитих функција губитака и алгоритама оптимизције. Користи такозвани трик са хеширањем за ограничавање величине скупа функција, независно од количине података који се обрађују.
scikit-learn: Обезбеђује изванредне имплементације алгоритама за
^Стохастичка оптимизација метода градијентног спуста
^ абBertsekas, D. P. (2011). Incremental gradient, subgradient, and proximal methods for convex optimization: a survey. Optimization for Machine Learning, 85.
^Kushner, Harold; George Yin, G. (2003). Stochastic Approximation and Recursive Algorithms and Applications (2nd изд.). New York: Springer. ISBN978-0-387-00894-3.
حاملات البوغ . بوغ من أحد انواع عيش الغراب. سرخس ، يتكاثر عن طريق البوغ البَوغ [1](بالإنجليزية: Spore) (وجمعها أبَوْاغ) في علم النبات هو خلية تكاثر لاجنسي، تنقل النبات من حالة الركود إلى حالة النشاط أو العكس، وهي قادرة على تكوين أفراد جديدة مباشرة عكس العِرس (بالإنجليزية: Game...
Zimmern ob Rottweil Entidad subnacional Escudo Coordenadas 48°10′05″N 8°35′28″E / 48.168055555556, 8.5911111111111Entidad Municipio no urbano en Alemania • País AlemaniaSuperficie • Total 33,76 km² Altitud • Media 663 m s. n. m.Población (31 de diciembre de 2022) • Total 6413 hab. • Densidad 189,96 hab/km²Huso horario UTC+01:00 y UTC+02:00Código postal 78658[1]Prefijo telefónico...
هذه المقالة يتيمة إذ تصل إليها مقالات أخرى قليلة جدًا. فضلًا، ساعد بإضافة وصلة إليها في مقالات متعلقة بها. (يوليو 2020) بريونيالشعارمعلومات عامةالجنسية إيطاليا التأسيس 1945 النوع عمل تجاري — مقاولة الشكل القانوني شركة خاصة المقر الرئيسي بيني موقع الويب brioni.com المنظومة الاقتصاد
Червоний остріврос. Красный остров Жанр драмаРежисер Олександр ФенькоСценарист Олександр ФенькоУ головних ролях Олександр ФеклістовДіана Костріцина Андрій БолтнєвОператор Володимир КалашниковКомпозитор Ольга КриволапХудожник Олександр ТихоновичКінокомпанія Імп�...
1974 studio album by Donny & Marie OsmondI'm Leaving It All Up to YouStudio album by Donny & Marie OsmondReleasedJuly 1974Recorded1974GenreBubblegum popLength28:18LabelMGM RecordsProducerMike Curb, Alan OsmondDonny & Marie Osmond chronology I'm Leaving It All Up to You(1974) Make The World Go Away(1975) Professional ratingsReview scoresSourceRatingDžuboks(Mixed) [1] I'm Leaving It All Up to You is the debut album by Donny & Marie Osmond, released in 1974. Two ...
Census-designated place in Hawaii, United States Kailua redirects here. For the town known as Kailua-Kona, see Kailua-Kona, Hawaii. For other uses, see Kailua (disambiguation). Census-designated place in Hawaii, United StatesKailuaCensus-designated placeAerial photo of Kailua, Enchanted Lake and Mokapu PeninsulaLocation in Honolulu County and the state of HawaiiKailuaLocation in HawaiiCoordinates: 21°23′51″N 157°44′22″W / 21.39750°N 157.73944°W / 21.39750; ...
Theodor Mommsen pada 1881 Christian Matthias Theodor Mommsen (30 November 1817 – 1 November 1903) adalah sarjana klasik, politikus, dan sejarawan Jerman. Karyanya pada sejarah Romawi tetap penting dalam penelitian masa kini. Mommsen adalah anak seorang menteri yang miskin. Ia lahir di Garding, Schleswig, besar di Oldesloe dan bersekolah di Altona. Kemudian ia belajar ilmu hukum di Kiel pada 1838-1843. Atas bantuan dana dari Denmark ia dapat mengunjungi Prancis dan Italia, di m...
River in the north-central United States For the river in Arkansas, see Little Missouri River (Arkansas). Little Missouri RiverFlowing through Theodore Roosevelt National ParkLittle Missouri watershedLocation of the mouth of the Little Missouri River in North DakotaLocationCountryUnited StatesStateWyoming, Montana, South Dakota, North DakotaPhysical characteristicsSourceFlatiron Butte • locationnear Oshoto, Crook County, Wyoming • coordinates44°32′25″...
Feudal overlord: a lord with no obligations to a higher lord Feudal titles and status Lord paramount / Territorial lord Tenant-in-chief Mesne lord Lord of the manor / Overlord / Vogt / Liege lord Esquire / Gentleman / Landed gentry Franklin / Yeoman / Retinue / Vavasour Husbandman Free tenant Domestic servant Vagabond Serf / Villein / Bordar / Cottar Slave vte A lord paramount is a term of art in feudal law describing an overlord who holds his own fief from no superior lord. It thus describes...
Francisco de Aguirre de Meneses Francisco de Aguirre de Meneses (* 1507 in Talavera de la Reina, Spanien; † 1581 in La Serena, Chile) war ein spanischer Konquistador, der an den Eroberungszügen gegen Chile, Peru, Argentinien und Bolivien teilnahm. Leben Der aus der Provinz Toledo stammende de Aguirre war der Sohn von Hernando de la Rúa und Constanza de Meneses. Er trat der Armee unter dem spanischen König Karl V. bei und nahm an der Schlacht von Pavia und 1527 an dem Sturm auf Rom teil. ...
Este artigo não cita fontes confiáveis. Ajude a inserir referências. Conteúdo não verificável pode ser removido.—Encontre fontes: ABW • CAPES • Google (N • L • A) (Julho de 2020) O Distrito de Nipissing é uma região administrativa da província canadense de Ontário. Sua capital é North Bay. Este artigo sobre Geografia do Canadá é um esboço. Você pode ajudar a Wikipédia expandindo-o. vde OntárioCapital: TorontoT�...
Liberian militia leader (born 1969) Benjamin YeatenNickname(s)50Born (1969-02-28) 28 February 1969 (age 54)Tiaplay, Nimba County, LiberiaAllegianceNPFL (1987–2003)Liberia (1997–2003)Service/branchArmed Forces of Liberia (1997–2003)Years of service1987–presentRankLieutenant general[1]Commands heldSpecial Security Service (SSS)[2][3]Special Operations Division[4]Anti-Terrorist Unit (ATU)[5]Armed Forces of LiberiaBattles/warsFirst Liberia...
Plane algebraic curve defined by a 4th-degree polynomial For the univariate case, see Quartic function. In algebraic geometry, a quartic plane curve is a plane algebraic curve of the fourth degree. It can be defined by a bivariate quartic equation: A x 4 + B y 4 + C x 3 y + D x 2 y 2 + E x y 3 + F x 3 + G y 3 + H x 2 y + I x y 2 + J x 2 + K y 2 + L x y + M x + N y + P = 0 , {\displaystyle Ax^{4}+By^{4}+Cx^{3}y+Dx^{2}y^{2}+Exy^{3}+Fx^{3}+Gy^{3}+Hx^{2}y+Ixy^{2}+Jx^{2}+Ky^{2}+Lxy+Mx+Ny+P=0,} wit...
Long Island Rail Road station in Queens, New York For the station known as Little Neck from 1866 to 1870, see Douglaston (LIRR station). Little NeckLooking eastGeneral informationLocationLittle Neck Parkway and 39th RoadLittle Neck, Queens, New YorkCoordinates40°46′30″N 73°44′27″W / 40.775°N 73.740744°W / 40.775; -73.740744Owned byLong Island Rail RoadLine(s)Port Washington BranchDistance12.7 mi (20.4 km) from Long Island City[1]Platforms2...
Canadian semi-professional soccer club Football clubPickering FCFull namePickering Football ClubFounded1984 / 2014StadiumKinsmen ParkHead CoachAleks Balda (men)Dmitri Ovtchinnikov (women)LeagueLeague1 Ontario2022League1 Ontario, 14th (men)League1 Ontario, 17th (women)WebsiteClub website Pickering Football Club, commonly known as Pickering FC, is a Canadian semi-professional soccer club based in Pickering, Ontario that plays in League1 Ontario. The club is currently on hiatus for the 2023 seas...
Samora Moisés MachelPresiden Mozambik ke-1Masa jabatan25 Juni 1975 – 19 Oktober 1986PendahuluTidak adaPenggantiJoaquim Chissano Informasi pribadiLahir(1933-09-29)29 September 1933Madragoa, Provinsi Gaza, Mozambik PortugisMeninggal19 Oktober 1986(1986-10-19) (umur 53)Mbuzini, Lebombo Mountains, Afrika SelatanPartai politikFRELIMOSuami/istriGraça MachelSunting kotak info • L • B Samora Moisés Machel (29 September 1933 – 19 Oktober 1986) adalah se...
Island in Wilhelm Archipelago, Antarctica Winter IslandWordie House on Winter IslandWinter IslandLocation in AntarcticaGeographyLocationAntarcticaCoordinates65°14′58″S 64°15′35″W / 65.24944°S 64.25972°W / -65.24944; -64.25972ArchipelagoArgentine Islands, Wilhelm ArchipelagoLength900 m (3000 ft)AdministrationAdministered under the Antarctic Treaty System Wordie House on Winter Island Tourists on Winter Island, Antarctica Interior of Wordie House on...
Historic house in New Jersey, United States United States historic placeHenry Ludlam HouseU.S. National Register of Historic PlacesNew Jersey Register of Historic Places Show map of Cape May County, New JerseyShow map of New JerseyShow map of the United StatesNearest cityDennisville, New JerseyCoordinates39°11′43″N 74°50′31″W / 39.19528°N 74.84194°W / 39.19528; -74.84194Area0.7 acres (0.28 ha)Architectural styleFederalNRHP reference No.9...
British racing driver (born 1992) Not to be confused with Nicholas Hamilton. Nicolas HamiltonHamilton at the 2017 World RX of CanadaNationality BritishBorn (1992-03-28) 28 March 1992 (age 31)Stevenage, Hertfordshire, EnglandRelated toLewis Hamilton (half-brother)British Touring Car Championship careerDebut season2015Current teamGo-Fix with Autoaid BreakdownCar number28Former teamsROKiT Racing with Motorbase, AmD TuningStarts132 (135 entries)Wins0Poles0Fastest laps0Best finish24th in 2023...