Przejdź do głównych treściPrzejdź do wyszukiwarkiPrzejdź do głównego menu
Reklama Ziaja kosmetyki kokos i pomarańcza
Reklama

AI, analizatory mowy i aplikacje. Oto najlepsze studenckie projekty badawcze na PG

Odtwarzanie obrazu twarzy jedynie za pomocą próbki głosu, wykrywanie zaburzeń psychicznych na podstawie mowy czy łazik sprzątający, wspierany przez AI – to tylko niektóre z nagrodzonych projektów badawczych studentów Wydziału Elektroniki, Telekomunikacji i Informatyki Politechniki Gdańskiej.

Autor: Karol Makurat | Zawsze Pomorze

Prezentacją studenckich projektów zakończyła się trzecia edycja przedmiotu „Projekty badawcze” na Wydziale Elektroniki, Telekomunikacji i Informatyki PG. To przedmiot obowiązkowy dla studentów studiów magisterskich, a projekty przygotowywali w 80 zespołach w trakcie roku akademickiego. Siedem z nich - nagrodzone i wyróżnione jako najlepsze - zaprezentowano podczas inauguracji studiów II stopnia.

– Studia II stopnia mają poszerzyć horyzonty - mówił podczas inauguracji prof. Mariusz Kaczmarek, prorektor PG ds. kształcenia, wyjaśniając ideę projektów badawczych. - Będziecie mogli zdobyć doświadczenie w prawdziwej pracy naukowej; praca w zespole, raportowanie badań, przygotowanie publikacji czy zgłoszenie patentowe - to wszystko może być waszym udziałem już niebawem.

Wśród najlepszych i najciekawszych projektów badawczych siedem wybrano w konkursie dziekana WETI, a dodatkowo trzy projekty zostały nagrodzone i wyróżnione w konkursie na najlepszy projekt związany ze sztuczną inteligencją, ogłoszony przez firmę S&P Global.

W tegorocznych projektach studenci WETI postawili przede wszystkim na wykorzystanie sztucznej inteligencji.

Nagrodzone projekty badawcze ETI

 

I nagrodę dostały w tym roku dwa projekty:

  • Robot sprzątający - sprzątanie świata z wsparciem mobilnej platformy sztucznej inteligencji. Robot – łazik z pojemnikami na śmieci i modułem chwytającym - wykorzystując AI rozpoznaje śmieci i odpowiednio je klasyfikuje pod kątem recyklingu. Ten projekt stworzył międzynarodowy zespół: Andrii Melnyk, Ahmad Shehada, Johan Carcamo Pineda, Murad Abdullayev, Arda Candas, Nirav Ratilal Vaghasiya. Opiekunem naukowym był prof. Jacek Rumiński
  • Badanie parametrów oraz optymalizacja interpolatorów fazy o różnych architekturach w niskoskalowalnej technologii CMOS. System opracowali Aleksandra Podgórska i Michał Kardas, a ich opiekunem naukowym był dr hab. inż. Jacek Jakusz

II nagroda przypadła projektowi Wiktora Krasińskiego, Jana Stopińskiego, Jakuba Nowaka i Przemysława Roślenia (pod opieką prof. Andrzeja Czyżewskiego i mgr inż. Marty Zielonki. Projekt pod nazwą Badanie algorytmów uczenia maszynowego w zastosowaniu do rozpoznawania mowy personelu medycznego” ma na celu m.in. stworzenie audiosłownika polskich wyrażeń medycznych, używanych np. do opisywania chorób czy wypisywania recept. 

- Celem projektu było opracowanie metodyki dotrenowania i testowania dostępnych algorytmów transkrypcji mowy na tekst, np. w środowisku do uczenia głębokiego. Następnie, w oparciu o zadeklarowaną współpracę ze strony lekarzy Gdańskiego Uniwersytetu Medycznego należało zbudować i nagrać słownik polskich wyrażeń medycznych, które są używane przy opisywaniu chorób, kierowaniu na badania przez specjalistów wypisywaniu recept - tłumaczą członkowie zespołu. Podczas pracy nad projektem dokonali syntezy 1200 nagrań mowy ze słownika medycznego przy pomocy kilku różnych głosów.

III nagrodę przyznano projektowi wykrywania zaburzeń psychicznych na podstawie analizy mowy. Nad systemem zbierającym charakterystyczne np. dla depresji cechy wyrażania myśli pracowali Samuel Szurman, Marina Galanina, Anna Rekiel (piekun naukowy: prof. Bożena Kostek prof. PG).

Celem projektu badawczego była analiza powiązań pomiędzy próbką mowy a związkiem z chorobami psychicznymi ( m.in. schizofrenią i depresją) - tłumaczą studenci. W trakcie pracy analizowali m.in. sygnały mowy osób ze zdiagnozowanymi zaburzeniami psychicznymi przy użyciu przetwarzania sygnału (oraz analizy mowy).

 Wyróżnienia otrzymały projekty:

  • Analiza powiązań pomiędzy brzmieniem głosu i kolorem przypisanym do próbki głosowej mówcy/śpiewu (zespół: Jelizaveta Kurilčik, Maciej Jankowski, Olga Kozłowska, Aleksandra Łabich, Edyta Skiba, Paweł Śliwiński, Patryk Spierewka, Mateusz Połom)

  • Implementacja autorskiego modelu rozwiązania Speech-to-Face (zespół: Kacper Pietkun, Marta Browarczyk, Bogna Gondek)

  • Lokalny system pozycjonowania IoT (BLE/LoRa) dla zastosowań w inteligentnych budynkach oraz dla Przemysłu 4.0 (zespół: Jakub Bąkowski, Jerzy Wąsikowski, Mateusz Gaffka, Benedykt Sikorski)


Podziel się
Oceń

Napisz komentarz

Komentarze

Reklama
Reklama
Reklama
Reklama