Publication: Audio-driven image generation and editing with pretrained diffusion models
dc.contributor.advisor | Erdem, Aykut | |
dc.contributor.department | Graduate School of Sciences and Engineering | |
dc.contributor.kuauthor | Biner, Burak Can | |
dc.contributor.program | Computer Sciences and Engineering | |
dc.contributor.referee | Erdem, Erkut||Erzin, Engin | |
dc.contributor.schoolcollegeinstitute | GRADUATE SCHOOL OF SCIENCES AND ENGINEERING | |
dc.coverage.spatial | İstanbul | |
dc.date.accessioned | 2025-06-30T04:35:33Z | |
dc.date.available | 2025-03-10 | |
dc.date.issued | 2024 | |
dc.description.abstract | We are witnessing a revolution in conditional image synthesis with the recent success of large scale text-to-image generation methods. This success also opens up new opportunities in controlling the generation and editing process using multi-modal input. While spatial control using cues such as depth, sketch, and other images has attracted a lot of research, we argue that another equally effective modality is audio since sound and sight are two main components of human perception. Hence, in this thesis we propose SonicDiffusion to enable audio-conditioning in large scale image diffusion models. Our method first maps features obtained from audio clips to tokens that can be injected into the diffusion model in a fashion similar to text tokens. We introduce additional audio-image cross attention layers which we finetune while freezing the weights of the original layers of the diffusion model. In addition to audio conditioned image generation, our method can also be utilized in conjuction with diffusion based editing methods to enable audio conditioned image editing. We demonstrate our method on a wide range of audio and image datasets. We perform extensive comparisons with recent methods and show favorable performance. | |
dc.description.abstract | Son zamanlarda büyük ölçekli metinden görüntü üretim yöntemlerinin ses getiren başarısıyla koşullu görüntü üretimi alanında bir devrime şahitlik etmekteyiz. Bu başarılar aynı zamanda farklı çok kipli koşullanmış görüntü üretimleri için de yeni fırsatlar sunmakta. Uzamsal kontrolü belirleyen görüntü, derinlik, eskiz gibi kipin araştırma konusu olarak ilgi çekerken ses ve görüntünün insan algısının iki ana bileşeni olmasından ötürü eşit miktarda etkili olabilecek bir diğer kipin ses olduğunu savunmaktayız. Bu sebeple, bu tezde büyük ölçekli yayınım modellerinde sese koşullanmış görüntü üretimini mümkün kılan SonicDiffusion adını verdiğimiz bir yöntem önermekteyiz. Yöntemimiz öncelikle ses kliplerinden elde edilen öznitelikleri metin belirteçlerine benzer şekilde yayınım modeline enjekte edilebilen belirteçlere dönüştürmekte. Ardından yayınım modellerinin orijinal değişkenlerini dondurarak, ekstra ses-görüntü çapraz dikkat katmanları sunmakta ve bu katmanları ince ayarlamakta. Yöntemimiz ses koşullandırılmış görüntü üretiminin yanı sıra, görüntü düzenlemesi için yayınım modelleri tabanlı görüntü düzenleme yöntemleriyle birlikte kullanılabilmekte. Yöntemimizin performansını çeşitli ses ve resim veri kümeleri üzerinde göstermekteyiz. Yakın dönemde öne çıkan diğer yöntemlerle de kapsamlı bir kıyaslama yapmakta ve lehimize sonuçlar göstermekteyiz. | |
dc.description.fulltext | Yes | |
dc.identifier.embargo | No | |
dc.identifier.endpage | 77 | |
dc.identifier.filenameinventoryno | T_2024_040_GSSE | |
dc.identifier.uri | https://hdl.handle.net/20.500.14288/29731 | |
dc.identifier.yoktezid | 850979 | |
dc.identifier.yoktezlink | https://tez.yok.gov.tr/UlusalTezMerkezi/TezGoster?key=cr4SkWLaRMhkDRBjqthpsZIrSNr388TdUrMcFSDzaj8sSwonxrV1_qosZ6u_8_gM | |
dc.language.iso | eng | |
dc.publisher | Koç University | |
dc.relation.collection | KU Theses and Dissertations | |
dc.rights | restrictedAccess | |
dc.rights.copyrightsnote | © All Rights Reserved. Accessible to Koç University Affiliated Users Only! | |
dc.subject | Image processing | |
dc.subject | Digital techniques | |
dc.subject | Computer vision | |
dc.title | Audio-driven image generation and editing with pretrained diffusion models | |
dc.title.alternative | Önceden eğitilmiş yayınım modelleri ile ses tabanlı görüntü oluşturma ve düzenleme | |
dc.type | Thesis | |
dspace.entity.type | Publication | |
local.contributor.kuauthor | Biner, Burak Can | |
relation.isAdvisorOfThesis | 3ee9e0f2-f116-44b7-889f-e84f9af786e4 | |
relation.isAdvisorOfThesis.latestForDiscovery | 3ee9e0f2-f116-44b7-889f-e84f9af786e4 | |
relation.isOrgUnitOfPublication | 3fc31c89-e803-4eb1-af6b-6258bc42c3d8 | |
relation.isOrgUnitOfPublication.latestForDiscovery | 3fc31c89-e803-4eb1-af6b-6258bc42c3d8 | |
relation.isParentOrgUnitOfPublication | 434c9663-2b11-4e66-9399-c863e2ebae43 | |
relation.isParentOrgUnitOfPublication.latestForDiscovery | 434c9663-2b11-4e66-9399-c863e2ebae43 |
Files
Original bundle
1 - 1 of 1