旭五行属性是什么| 喝茶叶有什么好处| 斯里兰卡说什么语言| 盐和醋泡脚有什么好处| 糖尿病人吃什么水果| 裙带菜不能和什么一起吃| 默哀是什么意思| 螃蟹喜欢吃什么食物| 坦诚相待下一句是什么| 无可厚非什么意思| 杏鲍菇炒什么好吃| 腊八蒜为什么是绿色的| 马刺是什么意思| 泄泻是什么意思| 心影增大是什么意思| 高良姜是什么姜| 决堤什么意思| 红斑是什么病| 阴阳和合是什么意思| 强龙不压地头蛇是什么生肖| 射手什么象星座| 面部发红是什么原因| 尿频是什么原因导致的| 摇粒绒是什么面料| 狐狸和乌鸦告诉我们什么道理| 雾霾蓝配什么颜色好看| 澳门什么时候回归祖国| horns是什么意思| 更年期出汗多是什么原因| 吉祥如意是什么意思| 欲拒还迎什么意思| 梵文是什么意思| 吃什么减肚子上的赘肉最快| 水银是什么| 甲氧氯普胺片又叫什么| 为什么会脚麻| puma是什么品牌| 89年什么命| 枕芯用什么填充物好| 大便黑色是什么原因| 粘鞋子用什么胶水最好| 荨麻疹吃什么药好的快| 智齿前面一颗牙叫什么| 牛筋面是什么做的| 什么季节掉头发最厉害| 股票里xd是什么意思| 乳房疼吃什么药| 痛风用什么药| 益气是什么意思| 鲫鱼喜欢吃什么| 肺腺瘤是什么| 婴儿补铁吃什么铁剂| 孕妇脚肿是什么原因| 清洁度三度什么意思| 双环征是什么意思| 什么奶茶最好喝| 琼瑶什么意思| 精神卫生科看什么病| 葡萄糖偏低是什么意思| 澳门有什么好玩的| 米黄是什么颜色| 什么动物吃草| 带下病是什么病| 3月9日什么星座| 屋尘螨是什么东西| 小狗什么时候换牙| 7月22日是什么星座| 家长里短是什么意思| 云是由什么组成的| 过敏性鼻炎喷什么药| 为什么会突然吐血| 发烧吃什么食物最好| 打耳洞去医院挂什么科| 怀孕早期有什么症状| 殊胜的意思是什么| 什么是低保户| 煮虾放什么| 青光眼是什么原因引起的| 孝敬是什么意思| 棉絮是什么意思| 吃饭的时候恶心想吐是什么原因| 甲钴胺不能和什么药一起服用| 幼小衔接是什么意思| ut是什么意思| 夫妻都是b型血孩子是什么血型| 维生素B1有什么副作用| 12月21日什么星座| 梦见采蘑菇是什么预兆| 梦见蛇吃蛇是什么预兆| 脸上出汗是什么原因| 屁股痛是什么原因| 龙是什么命| 缺维生素b有什么症状| 为什么腋下老是出汗| 小孩经常口腔溃疡是什么原因| 特效是什么意思| 肛门被捅后有什么影响| 阴虱长什么样子| 末次月经是什么意思| 突然间头晕是什么原因| 北京大栅栏有什么好玩的| 红枣为什么要炒黑再泡水喝| 好奇害死猫什么意思| 大拇指抖动是什么原因引起的| 舌头热灼是什么原因| 肉桂粉是什么做的| 水奶和奶粉什么区别| 夏天适合喝什么茶| kpa是什么单位| 胃总疼是什么原因| 早上起来口干口苦是什么原因| 翠色什么流| 拉拉是什么意思| 五粮液是什么香型的酒| 中段尿是什么意思| 什么症状吃肝胃气痛片| 恢复伤口的鱼叫什么鱼| 孕妇甲减是什么原因引起的| 什么地吃| 人上人是什么意思| 什么然| 清明是什么季节| 思维跳脱是什么意思| 龙抬头是什么意思| 什么的雪花| 一毛三是什么军衔| 婴儿反复发烧是什么原因| 高血压需要注意什么| 绝世是什么意思| abo血型是什么意思| 刷脂是什么意思| 梦到涨大水预示着什么| 喝水都长肉是什么原因| 比细菌还小的东西是什么| 眼睛晶体是什么| 北京大学校长什么级别| 牙龈肿胀什么原因| 宁的五行属性是什么| 感冒可以吃什么水果好| 四个火读什么| 鸡子是什么东西| 白芷有什么作用与功效| 头发里长痣代表什么| 人为什么要拉屎| 梦到亲人死了是什么征兆| 高招是什么意思| 孩提是什么意思| 19年属什么| 土霉素治什么病| 为什么会长卵巢畸胎瘤| 9月13日是什么日子| 小孩低烧吃什么药| 疏忽是什么意思| 67年的羊是什么命| 视网膜脱落有什么症状| 普洱茶适合什么季节喝| 家里有小蜘蛛预示什么| 什么是直流电| 风象星座是什么意思| 秋葵有什么好处| 姐姐的女儿应该叫什么| 气溶胶传播是什么意思| 反弹是什么意思| 梦到认识的人死了是什么意思| 喝金银花有什么好处| 7月初二是什么星座| 政协是干什么的| 野生葛根粉有什么功效| 8月23号是什么星座| 声音的传播需要什么| 吃什么补白细胞| 重金属是什么| 94年属什么今年多大| 乡镇党委书记是什么级别| 做美甲师容易得什么病| 中伤是什么意思| 病案号是什么| 为什么受伤总是我| amh是什么意思| 山西的简称是什么| 莲子心和什么搭配最佳治失眠| 青梅是什么意思| 马加大是什么字| 奥特莱斯是什么店| 吃什么回奶最快最有效| 一台什么| 血压低吃什么中成药| 最里面的牙齿叫什么| 阴虚火旺有什么症状| 殊胜是什么意思| 留存是什么意思| 人绒毛膜促性腺激素是查什么的| 外感发热什么意思| 什么人不适合喝骆驼奶| 大姨妈量少什么原因| 儿童腹泻吃什么药| 宿便是什么颜色| 怀孕后吃避孕药有什么后果| 炉中火是什么意思| 梓什么意思| 喝椰子粉有什么好处| 血便是什么原因引起的| 碱水对人有什么危害| 炎症是什么意思| cupid什么意思| 湖北有什么好吃的| venes保温杯是什么品牌| 睡觉打呼噜什么原因| 狗能吃巧克力吗为什么| 作业是什么意思| 驴血是什么颜色| 晚上吃什么不长胖| 肝疼是什么原因| w代表什么单位| 为什么会尿道感染| 梦到和妈妈吵架是什么意思| 眼压高用什么药| 复杂性囊肿是什么意思| 鹿晗什么星座| 高反是什么意思| 血小板减少吃什么能补回来| 老人脚肿吃什么药消肿| 羊水暗区是什么意思| 为什么会打呼| 淋病是什么病| 无回声结节是什么意思| 素土是什么| 大力出奇迹什么意思| ast是什么意思| 一龙一什么填十二生肖| 泥石流是什么| 西铁城是什么档次的表| 吃什么能降血糖| 鼻塞黄鼻涕吃什么药| 女人绝经一般在什么年龄段| 神经病和精神病有什么区别| 犇是什么意思| pco2是什么意思| 龟头炎用什么药膏好| 脚上长鸡眼去医院挂什么科| 为什么牙齿晚上痛白天不痛| 感冒为什么会全身酸痛无力| 杜鹃花什么时候开| 纸鸢是什么意思| 结扎是什么| 小孩牙疼吃什么药| 牙齿黑是什么原因| 什么是毛周角化| 软包是什么意思| si是什么元素| 诸位是什么意思| 吃什么对心脏最好| 樱桃补什么| 盆腔b超检查什么| KTV服务员主要做什么| 哥谭市是什么意思| 什么的寒冷| 貔貅五行属什么| 海之蓝是什么香型| 兰花是什么季节开的| 诗情画意的意思是什么| 中东为什么叫中东| 平起平坐是什么动物| 前列腺是什么原因引起的| 百度Перейти до вм?сту

关注杭州教育微信 拿嘟嘟城、海底世界门票

Матер?ал з В?к?пед?? — в?льно? енциклопед??.
百度 已经分别与复旦大学、同济大学宣布共同发起设立校企合作科技创新平台,加速推动名校科技、产业优势与绿地资本、市场优势对接。

У машинному навчанн? вар?ац?йний автокодувальник (англ. variational autoencoder),[1] в?домий також як ВАК (англ. VAE), — це арх?тектура штучно? нейронно? мереж?, запроваджена Д?дер?ком П. К?нгмою та Максом Велл?нгом[en], що належить до с?мейств ?мов?рн?сних графових моделей та вар?ац?йних ба?сових метод?в[en].

?? часто асоц?юють ?з моделлю автокодувальника[2][3] через ?? арх?тектурну спор?днен?сть, але м?ж ними ? значн? в?дм?нност? як у ц?л?, так ? в математичному формулюванн?. Вар?ац?йн? автокодувальники призначено для стискання ?нформац?? входу до обмеженого багатовим?рного латентного розпод?лу (кодування), щоби в?дбудовувати ?? якомога точн?ше (декодування). Хоча первинно цей тип модел? було розроблено для некерованого навчання,[4][5] його д??в?сть було доведено й в ?нших областях машинного навчання, таких як нап?вкероване[6][7] та кероване навчання.[8]

Арх?тектура

[ред. | ред. код]

Вар?ац?йн? автокодувальники ? вар?ац?йними ба?совими методами з багатовим?рним розпод?лом як апр?орне, й апостер?орним, наближуваним штучною нейронною мережею, що утворюють так звану структуру вар?ац?йного кодувальника-декодувальника.[9][10][11]

Стандартний кодувальник ? штучною нейронною мережею, здатною зводити свою вх?дну ?нформац?ю до найвужчого подання, що називають латентним простором. В?н явля? собою першу половину арх?тектури як автокодувальника, так ? вар?ац?йного автокодувальника: для першого виходом ? ф?ксований вектор штучних нейрон?в, а в другому ?нформац?я виходу стиска?ться до ймов?рн?сного латентного простору, що все ще склада?ться з? штучних нейрон?в. Проте в арх?тектур? вар?ац?йного автокодувальника вони представляють ? ?х розглядають як два р?зн? вектори однаково? вим?рност?, що подають вектор середн?х значень та вектор стандартних в?дхилень в?дпов?дно.

Стандартний декодувальник все ще ? штучною нейронною мережею, призначеною в?ддзеркалювати арх?тектуру кодувальника. В?н бере на вход? стиснену ?нформац?ю, що надходить ?з латентного простору, а пот?м розгорта? ??, виробляючи вих?д, якомога ближчий до входу кодувальника. ? хоча для автокодувальника вх?д декодувальника ? просто вектором д?йсних значень ф?ксовано? довжини, для вар?ац?йного автокодувальника необх?дно ввести пром?жний етап: враховуючи ймов?рн?сну природу латентного простору, можливо розглядати його як багатовим?рний гаусс?в вектор. За цього припущення й за допомогою методики, в?домо? як перепараметрувальний трюк (англ. reparametrization trick), можливо вибирати сукупност? з цього латентного простору й розглядати ?х точно як вектор д?йсних значень ф?ксовано? довжини.

З системно? точки зору модел? як стандартного, так ? вар?ац?йного автокодувальник?в отримують як вх?д наб?р даних велико? розм?рност?. Пот?м вони адаптивно стискають його до латентного простору (кодування) ?, нарешт?, намагаються якомога точн?ше його в?дбудувати (декодування). Враховуючи природу його латентного простору, вар?ац?йний автокодувальник характеризу?ться дещо ?ншою ц?льовою функц??ю: в?н ма? м?н?м?зувати функц?ю втрат в?дбудови, як ? стандартний автокодувальник. Проте в?н також врахову? розходження Кульбака — Лейблера м?ж латентним простором та вектором нормальних гаусс?ан.

Формулювання

[ред. | ред. код]
Базова схема вар?ац?йного автокодувальника. Модель отриму? як вх?д. Кодувальник стиска? його до латентного простору. Декодувальник отриму? як вх?д ?нформац?ю, вибрану з цього латентного простору, й виробля? , що ? якомога под?бн?шим до .

З формально? точки зору, за заданого набору даних входу , описуваного нев?домою функц??ю ймов?рност? , та багатовим?рного вектора латентного кодування , мета поляга? в моделюванн? цих даних як розпод?лу , де визначено як наб?р параметр?в мереж?.

Цей розпод?л можливо формал?зувати як

де ? св?дченням даних ц??? модел? з в?дособленням, виконаним над неспостережуваними зм?нними, й в?дтак пода? сп?льний розпод?л даних входу та ?хнього латентного подання в?дпов?дно до параметр?в мереж? .

В?дпов?дно до теореми Ба?са, це р?вняння можливо переписати як

У стандартному вар?ац?йному автокодувальнику ми вважа?мо, що ма? ск?нченну розм?рн?сть, ? що ? гауссовим розпод?лом, тод? ? сум?шшю гауссових розпод?л?в.

Тепер можливо визначити наб?р вза?мозв'язк?в м?ж даними входу та ?х латентним поданням як

  • Апр?орне
  • Правдопод?бн?сть
  • Апостер?орне

На жаль, обчислення ? дуже витратним, ? в б?льшост? випадк?в нав?ть неп?ддатливим. Щоби пришвидшити це обчислення й зробити його зд?йсненним, необх?дно ввести додаткову функц?ю для наближення апостер?орного розпод?лу:

де визначено як наб?р д?йсних значень, що параметру? .

Таким чином загальну задачу можливо легко перевести до област? визначення автокодувальника, в якому розпод?л умовно? правдопод?бност? провадиться ?мов?рн?сним кодувальником (англ. probabilistic encoder), а наближений апостер?орний розпод?л обчислю?ться ?мов?рн?сним декодувальником (англ. probabilistic decoder).

Функц?я втрат НМЕС

[ред. | ред. код]

Як ? в будь-як?й задач? глибокого навчання, щоб уточнювати ваги мереж? шляхом зворотного поширення, необх?дно визначити диференц?йовну функц?ю втрат.

Для вар?ац?йних автокодувальник?в ?дея поляга? в сп?льному м?н?м?зуванн? параметр?в породжувально? модел? , щоби зменшувати похибку в?дбудови м?ж входом ? виходом мереж?, та , щоби мати якомога ближчою до .

Як втрати в?дбудови, добрими вар?антами ? середньоквадратична похибка та перехресна ентроп?я.

Як втрати в?дстан? м?ж цими двома розпод?лами, добрим вибором, щоби втискувати п?д , ? обернене розходження Кульбака — Лейблера .[1][12]

Щойно визначен? втрати в?дстан? розкриваються як

На цьому етап? можливо переписати це р?вняння як

Метою ? максим?зувати логарифм?чну правдопод?бн?сть л?во? частини цього р?вняння для пол?пшення якост? породжуваних даних та м?н?м?зування в?дстаней м?ж розпод?лами справжнього та оц?нюваного апостер?орних.

Це ? р?внозначним м?н?м?зуванню в?д'?мно? логарифм?чно? правдопод?бност?, що ? типовою практикою в задачах оптим?зац??.

Отриману таким чином функц?ю втрат, яку також називають функц??ю втрат нижньо? меж? св?дчення[en] (англ. evidence lower bound), скорочено НМЕС (англ. ELBO), можливо записати як

Враховуючи властив?сть нев?д'?мност? розходження Кульбака — Лейблера, буде правильним стверджувати, що

Оптимальними параметрами ? т?, як? м?н?м?зують цю функц?ю втрат. Цю задачу можливо узагальнити як

Основна перевага цього формулювання поляга? в можливост? сп?льного оптим?зування за параметрами та .

Перш н?ж застосовувати функц?ю втрат НМЕС до задач? оптим?зування для зворотного поширення град??нта, необх?дно зробити ?? диференц?йовною, застосувавши так званий трюк перепараметрування (англ. reparameterization trick), щоб усунути стохастичне вибирання з цього формування, й таким чином зробити ?? диференц?йовною.

Трюк перепараметрування

[ред. | ред. код]
Схема трюку перепараметрування. Зм?нну випадковост? вводять до латентного простору як зовн?шн?й вх?д. Таким чином можливо зворотно поширювати град??нт без залучення стохастично? зм?нно? п?д час уточнення.

Щоб зробити формулювання НМЕС придатним для ц?лей тренування, необх?дно ввести подальшу незначну зм?ну до формулювання задач?, а також до структури вар?ац?йного автокодувальника.[1][13][14]

Стохастичне вибирання ? недиференц?йовною операц??ю, через яку можливо вибирати з латентного простору й подавати на ймов?рн?сний декодувальник.

Щоб уможливити застосування процес?в зворотного поширення, таких як стохастичний град??нтний спуск, запроваджують трюк перепараметрування.

Основним припущенням про латентний прост?р ? те, що його можливо розглядати як сукупн?сть багатовим?рних гауссових розпод?л?в ?, отже, можливо описати як

Схема вар?ац?йного автокодувальника п?сля трюку перепараметрування.

Якщо , а визначено як поелементний добуток, то трюк перепараметрування зм?ню? наведене вище р?вняння до

.

Завдяки цьому перетворенню, яке можливо поширити й на ?нш? розпод?ли, в?дм?нн? в?д гауссового, вар?ац?йний автокодувальник п?дда?ться тренуванню, а ймов?рн?сний кодувальник ма? навчатися в?дображувати стиснене подання вх?дних даних у два латентн? вектори та , тод? як стохастичн?сть залиша?ться виключеною з процесу уточнювання, й вводиться до латентного простору як зовн?шн?й вх?д через випадковий вектор .

Р?зновиди

[ред. | ред. код]

?сну? багато застосувань ? розширень вар?ац?йних автокодувальник?в для пристосовування ц??? арх?тектури до р?зних областей та пол?пшення ?? продуктивност?.

β-ВАК (англ. β-VAE) ? вт?ленням з? зваженим членом розходження Кульбака — Лейблера для автоматичного виявляння та ?нтерпретування розкладених латентних подань. За допомогою цього вт?лення можливо нав'язувати розплутування многовиду для значень , б?льших за одиницю. Автори показали здатн?сть ц??? арх?тектури породжувати високояк?сн? синтетичн? зразки.[15][16]

Ще одне вт?лення, назване умовним вар?ац?йним автокодувальником (англ. conditional variational autoencoder), скорочено УВАК (англ. CVAE), як вважають, вставля? м?ткову ?нформац?ю до латентного простору, нав'язуючи детерм?новане обмежене подання навчених даних.[17]

Деяк? структури безпосередньо займаються як?стю породжуваних зразк?в[18][19] або вт?люють понад одного латентного простору для подальшого пол?пшення навчання подань.[20][21]

Деяк? арх?тектури по?днують структури вар?ац?йних автокодувальник?в та породжувальних змагальних мереж, щоб отримувати г?бридн? модел? з високими породжувальними спроможностями.[22][23][24]

Див. також

[ред. | ред. код]

Прим?тки

[ред. | ред. код]
  1. а б в Kingma, Diederik P.; Welling, Max (1 травня 2014). Auto-Encoding Variational Bayes. arXiv:1312.6114 [stat.ML]. (англ.)
  2. Kramer, Mark A. (1991). Nonlinear principal component analysis using autoassociative neural networks. AIChE Journal (англ.). 37 (2): 233—243. doi:10.1002/aic.690370209. Арх?в ориг?налу за 8 червня 2021. Процитовано 3 липня 2021. (англ.)
  3. Hinton, G. E.; Salakhutdinov, R. R. (28 липня 2006). Reducing the Dimensionality of Data with Neural Networks. Science (англ.). 313 (5786): 504—507. Bibcode:2006Sci...313..504H. doi:10.1126/science.1127647. PMID 16873662. S2CID 1658773. Арх?в ориг?налу за 28 червня 2021. Процитовано 3 липня 2021. (англ.)
  4. Dilokthanakul, Nat; Mediano, Pedro A. M.; Garnelo, Marta; Lee, Matthew C. H.; Salimbeni, Hugh; Arulkumaran, Kai; Shanahan, Murray (13 с?чня 2017). Deep Unsupervised Clustering with Gaussian Mixture Variational Autoencoders. arXiv:1611.02648 [cs.LG]. (англ.)
  5. Hsu, Wei-Ning; Zhang, Yu; Glass, James (December 2017). Unsupervised domain adaptation for robust speech recognition via variational autoencoder-based data augmentation. 2017 IEEE Automatic Speech Recognition and Understanding Workshop (ASRU). с. 16—23. arXiv:1707.06265. doi:10.1109/ASRU.2017.8268911. ISBN 978-1-5090-4788-8. S2CID 22681625. Арх?в ориг?налу за 28 серпня 2021. Процитовано 3 липня 2021. (англ.)
  6. Ehsan Abbasnejad, M.; Dick, Anthony; van den Hengel, Anton (2017). Infinite Variational Autoencoder for Semi-Supervised Learning. с. 5888—5897. Арх?в ориг?налу за 24 червня 2021. Процитовано 3 липня 2021. (англ.)
  7. Xu, Weidi; Sun, Haoze; Deng, Chao; Tan, Ying (12 лютого 2017). Variational Autoencoder for Semi-Supervised Text Classification. Proceedings of the AAAI Conference on Artificial Intelligence (англ.). 31 (1). Арх?в ориг?налу за 16 червня 2021. Процитовано 3 липня 2021. (англ.)
  8. Kameoka, Hirokazu; Li, Li; Inoue, Shota; Makino, Shoji (1 вересня 2019). Supervised Determined Source Separation with Multichannel Variational Autoencoder. Neural Computation. 31 (9): 1891—1914. doi:10.1162/neco_a_01217. PMID 31335290. S2CID 198168155. Арх?в ориг?налу за 16 червня 2021. Процитовано 3 липня 2021. (англ.)
  9. An, J., & Cho, S. (2015). Variational autoencoder based anomaly detection using reconstruction probability. Special Lecture on IE, 2(1). (англ.)
  10. Заповн?ть пропущен? параметри: назву ?/або автор?в. arXiv:1911.12410. (англ.)
  11. Kingma, Diederik P.; Welling, Max (2019). An Introduction to Variational Autoencoders. Foundations and Trends in Machine Learning. 12 (4): 307—392. arXiv:1906.02691. doi:10.1561/2200000056. ISSN 1935-8237. S2CID 174802445. (англ.)
  12. From Autoencoder to Beta-VAE. Lil'Log (англ.). 12 серпня 2018. Арх?в ориг?налу за 14 травня 2021. Процитовано 3 липня 2021.
  13. Bengio, Yoshua; Courville, Aaron; Vincent, Pascal (2013). Representation Learning: A Review and New Perspectives. IEEE Transactions on Pattern Analysis and Machine Intelligence. 35 (8): 1798—1828. arXiv:1206.5538. doi:10.1109/TPAMI.2013.50. ISSN 1939-3539. PMID 23787338. S2CID 393948. Арх?в ориг?налу за 27 червня 2021. Процитовано 3 липня 2021. (англ.)
  14. Kingma, Diederik P.; Rezende, Danilo J.; Mohamed, Shakir; Welling, Max (31 жовтня 2014). Semi-Supervised Learning with Deep Generative Models. arXiv:1406.5298 [cs.LG]. (англ.)
  15. >Higgins, Irina; Matthey, Loic; Pal, Arka; Burgess, Christopher; Glorot, Xavier; Botvinick, Matthew; Mohamed, Shakir; Lerchner, Alexander (4 листопада 2016). beta-VAE: Learning Basic Visual Concepts with a Constrained Variational Framework (англ.). Арх?в ориг?налу за 20 липня 2021. Процитовано 3 липня 2021. (англ.)
  16. >Burgess, Christopher P.; Higgins, Irina; Pal, Arka; Matthey, Loic; Watters, Nick; Desjardins, Guillaume; Lerchner, Alexander (10 кв?тня 2018). Understanding disentangling in β-VAE. arXiv:1804.03599 [stat.ML]. (англ.)
  17. Sohn, Kihyuk; Lee, Honglak; Yan, Xinchen (1 с?чня 2015). Learning Structured Output Representation using Deep Conditional Generative Models (PDF) (англ.). Арх?в ориг?налу (PDF) за 9 липня 2021. Процитовано 3 липня 2021. (англ.)
  18. Dai, Bin; Wipf, David (30 жовтня 2019). Diagnosing and Enhancing VAE Models. arXiv:1903.05789 [cs.LG]. (англ.)
  19. Dorta, Garoe; Vicente, Sara; Agapito, Lourdes; Campbell, Neill D. F.; Simpson, Ivor (31 липня 2018). Training VAEs Under Structured Residuals. arXiv:1804.01050 [stat.ML]. (англ.)
  20. Tomczak, Jakub; Welling, Max (31 березня 2018). VAE with a VampPrior. International Conference on Artificial Intelligence and Statistics (англ.). PMLR: 1214—1223. arXiv:1705.07120. Арх?в ориг?налу за 24 червня 2021. Процитовано 3 липня 2021. (англ.)
  21. Razavi, Ali; Oord, Aaron van den; Vinyals, Oriol (2 червня 2019). Generating Diverse High-Fidelity Images with VQ-VAE-2. arXiv:1906.00446 [cs.LG]. (англ.)
  22. Larsen, Anders Boesen Lindbo; S?nderby, S?ren Kaae; Larochelle, Hugo; Winther, Ole (11 червня 2016). Autoencoding beyond pixels using a learned similarity metric. International Conference on Machine Learning (англ.). PMLR: 1558—1566. arXiv:1512.09300. Арх?в ориг?налу за 17 травня 2021. Процитовано 3 липня 2021. (англ.)
  23. Bao, Jianmin; Chen, Dong; Wen, Fang; Li, Houqiang; Hua, Gang (2017). CVAE-GAN: Fine-Grained Image Generation Through Asymmetric Training. с. 2745—2754. arXiv:1703.10155 [cs.CV]. (англ.)
  24. >Gao, Rui; Hou, Xingsong; Qin, Jie; Chen, Jiaxin; Liu, Li; Zhu, Fan; Zhang, Zhao; Shao, Ling (2020). Zero-VAE-GAN: Generating Unseen Features for Generalized and Transductive Zero-Shot Learning. IEEE Transactions on Image Processing. 29: 3665—3680. Bibcode:2020ITIP...29.3665G. doi:10.1109/TIP.2020.2964429. ISSN 1941-0042. PMID 31940538. S2CID 210334032. Арх?в ориг?налу за 28 червня 2021. Процитовано 3 липня 2021. (англ.)
八字缺什么怎么算 什么时候打仗 腔隙灶是什么意思 小孩干呕是什么原因 女人什么时候绝经正常
感冒吃什么食物好 吃什么东西能通便 硬度不够吃什么药 太阳鱼吃什么食物 孕妇吃什么
小太阳是什么牌子 花钱是什么意思 吃人参对身体有什么好处 2006属狗的五行缺什么 青光眼是什么原因引起的
六月八号什么星座 天枢是什么意思 手腕血管疼是什么原因 燕窝有什么功效和作用 UFS是什么意思
一什么尾巴hcv9jop4ns4r.cn 搞破鞋是什么意思hcv8jop7ns2r.cn 省油的灯是什么意思hcv8jop3ns2r.cn 血糖高能吃什么肉hcv8jop0ns0r.cn 3月28日是什么星座hcv8jop2ns6r.cn
就餐是什么意思hcv8jop6ns1r.cn 什么伐桂hcv8jop9ns2r.cn 疱疹一般长在什么部位hcv8jop4ns3r.cn 农历十月是什么月hcv9jop3ns4r.cn 黄金分割点是什么sanhestory.com
肝阴虚吃什么中成药hcv8jop8ns6r.cn 走胎是什么意思hcv9jop6ns8r.cn 文曲星什么意思hcv9jop1ns0r.cn 重庆房价为什么这么低jingluanji.com 为什么会有黑眼圈hcv7jop6ns1r.cn
wy是什么牌子hcv9jop3ns4r.cn 椭圆脸适合什么发型男hcv8jop8ns1r.cn 打冷是什么意思hcv9jop6ns0r.cn 检查有没有怀孕挂什么科travellingsim.com 妇科炎症是什么原因引起的hcv7jop7ns2r.cn
百度