Cyber hacking and Security threats (focusing on IoT security)Jihoon Yang
정보윤리와보안 개별탐구
사례로 알아보는 사이버 해킹 및 보안 위협 - IoT 보안을 중심으로
Cyber hacking and Security threats (focusing on IoT security)
| 작성자 |
제주대학교 사범대학 컴퓨터교육과 양지훈
본 슬라이드는 대한민국의 저작권법을 준수합니다.
CC-BY-NC-ND에 따라 이용하실 수 있습니다.
안녕하세요.
RL Korea에서 피지여행 프로젝트에 참여한 이동민입니다.
이 자료는 8월 25일 토요일에 제 1회 RLKorea 프로젝트 세미나에서 발표한 자료입니다. 아쉽게도 영상은 실행되지 않습니다.
세미나 링크는 아래와 같습니다.
제 1회 RLKorea 프로젝트 세미나 : https://www.facebook.com/groups/ReinforcementLearningKR/permalink/2024537701118793/?__tn__=H-R
피지여행을 간략하게 소개해드리자면, Policy Gradient와 관련된 논문들을 리뷰하여 블로그 정리하고 & 코드를 구현하여 실험하는 프로젝트입니다.
블로그와 깃허브는 다음과 같습니다.
정리 블로그 : https://reinforcement-learning-kr.github.io/…/0_pg-travel-…/
구현 깃허브 : https://github.com/reinforcement-learning-kr/pg_travel
많은 분들이 보시고 도움이 되었으면 좋겠습니다!
감사합니다~~!!!
Code for Japan Summit 2018のプレイベントとして
9/21に新潟市役所でデータアカデミー を実施しました。
新潟県、新潟市、長岡市、燕市、阿賀町と都道府県から、政令指定都市、市町村まで9チームが参加です。
講師は、Code for Japanの市川博之と、一般社団法人リンクデータの下山紗代子さんです。
常葉学園の学生の皆さんにグラレコもしていただいています。
안녕하세요. RL korea에서 "GAIL하자!" 라는 프로젝트를 진행했던 프로젝트 매니저 이동민이라고 합니다. 이 자료는 저희가 4개월동안 진행했던 과정들을 간략하게 소개하는 자료입니다.
저희 프로젝트는 Imitation Learning의 방법 중 하나인 "Inverse RL"에 대한 논문들의 이론적 바탕을 이해하고 이를 환경에 구현해보는 프로젝트를 진행하였습니다.
관련 논문 리스트는 다음과 같습니다.
[1] AY. Ng, et al., "Algorithms for Inverse Reinforcement Learning", ICML 2000.
[2] P. Abbeel, et al., "Apprenticeship Learning via Inverse Reinforcement Learning", ICML 2004.
[3] ND. Ratliff, et al., "Maximum Margin Planning", ICML 2006.
[4] BD. Ziebart, et al., "Maximum Entropy Inverse Reinforcement Learning", AAAI 2008.
[5] J. Ho, et al., "Generative Adversarial Imitation Learning", NIPS 2016.
[6] XB. Peng, et al., "Variational Discriminator Bottleneck. Improving Imitation Learning, Inverse RL, and GANs by Constraining Information Flow", ICLR 2019.
프로젝트 결과로는 논문을 정리한 블로그와 논문을 구현한 Github가 있습니다. 링크는 다음과 같습니다.
- 블로그 : https://reinforcement-learning-kr.github.io/2019/01/22/0_lets-do-irl-guide/
- Github : https://github.com/reinforcement-learning-kr/lets-do-irl
우리 모두 함께 IRL해요!
감사합니다 :)
Cyber hacking and Security threats (focusing on IoT security)Jihoon Yang
정보윤리와보안 개별탐구
사례로 알아보는 사이버 해킹 및 보안 위협 - IoT 보안을 중심으로
Cyber hacking and Security threats (focusing on IoT security)
| 작성자 |
제주대학교 사범대학 컴퓨터교육과 양지훈
본 슬라이드는 대한민국의 저작권법을 준수합니다.
CC-BY-NC-ND에 따라 이용하실 수 있습니다.
안녕하세요.
RL Korea에서 피지여행 프로젝트에 참여한 이동민입니다.
이 자료는 8월 25일 토요일에 제 1회 RLKorea 프로젝트 세미나에서 발표한 자료입니다. 아쉽게도 영상은 실행되지 않습니다.
세미나 링크는 아래와 같습니다.
제 1회 RLKorea 프로젝트 세미나 : https://www.facebook.com/groups/ReinforcementLearningKR/permalink/2024537701118793/?__tn__=H-R
피지여행을 간략하게 소개해드리자면, Policy Gradient와 관련된 논문들을 리뷰하여 블로그 정리하고 & 코드를 구현하여 실험하는 프로젝트입니다.
블로그와 깃허브는 다음과 같습니다.
정리 블로그 : https://reinforcement-learning-kr.github.io/…/0_pg-travel-…/
구현 깃허브 : https://github.com/reinforcement-learning-kr/pg_travel
많은 분들이 보시고 도움이 되었으면 좋겠습니다!
감사합니다~~!!!
Code for Japan Summit 2018のプレイベントとして
9/21に新潟市役所でデータアカデミー を実施しました。
新潟県、新潟市、長岡市、燕市、阿賀町と都道府県から、政令指定都市、市町村まで9チームが参加です。
講師は、Code for Japanの市川博之と、一般社団法人リンクデータの下山紗代子さんです。
常葉学園の学生の皆さんにグラレコもしていただいています。
안녕하세요. RL korea에서 "GAIL하자!" 라는 프로젝트를 진행했던 프로젝트 매니저 이동민이라고 합니다. 이 자료는 저희가 4개월동안 진행했던 과정들을 간략하게 소개하는 자료입니다.
저희 프로젝트는 Imitation Learning의 방법 중 하나인 "Inverse RL"에 대한 논문들의 이론적 바탕을 이해하고 이를 환경에 구현해보는 프로젝트를 진행하였습니다.
관련 논문 리스트는 다음과 같습니다.
[1] AY. Ng, et al., "Algorithms for Inverse Reinforcement Learning", ICML 2000.
[2] P. Abbeel, et al., "Apprenticeship Learning via Inverse Reinforcement Learning", ICML 2004.
[3] ND. Ratliff, et al., "Maximum Margin Planning", ICML 2006.
[4] BD. Ziebart, et al., "Maximum Entropy Inverse Reinforcement Learning", AAAI 2008.
[5] J. Ho, et al., "Generative Adversarial Imitation Learning", NIPS 2016.
[6] XB. Peng, et al., "Variational Discriminator Bottleneck. Improving Imitation Learning, Inverse RL, and GANs by Constraining Information Flow", ICLR 2019.
프로젝트 결과로는 논문을 정리한 블로그와 논문을 구현한 Github가 있습니다. 링크는 다음과 같습니다.
- 블로그 : https://reinforcement-learning-kr.github.io/2019/01/22/0_lets-do-irl-guide/
- Github : https://github.com/reinforcement-learning-kr/lets-do-irl
우리 모두 함께 IRL해요!
감사합니다 :)
A Quantitative Comparison of Coverage-Based Greybox FuzzersNorihiro Yoshida
slides for the paper "A Quantitative Comparison of Coverage-Based Greybox Fuzzers", Proceedings of the 1st IEEE/ACM International Conference on Automation of Software Test (AST 2020), pp.89-92, Seoul, South Korea, July 2020.
Proactive Clone Recommendation System for Extract Method RefactoringNorihiro Yoshida
“Extract Method” refactoring is commonly used for
merging code clones into a single new method. In this position
paper, we propose a proactive clone recommendation system for
“Extract Method” refactoring. The proposed system that has
been implemented as Eclipse plug-in monitors code modifications
on the fly. Once the proposed system detects an “Extract Method”
refactoring instance based on the analysis of code modifications,
it recommends code clones of the refactored code as refactoring
candidates. The preliminary user study shows that the users are
able to refactor a greater number of clones in less time compared
to a code clone analysis environment GemX.
Code Search Based on Deep Neural Network and Code MutationNorihiro Yoshida
Slides for the paper "Code Search Based on Deep Neural Network and Code Mutation" in the Proceeding of the 13th International Workshop on Software Clones (IWSC 2019), in conjunction with the 26th edition of the IEEE International Conference on Software Analysis, Evolution, and Reengineering (SANER 2019), Hangzhou, China, February 2019.
When, why and for whom do practitioners detect technical debts?: An experienc...Norihiro Yoshida
First International Workshop on Technical Debt Analytics (TDA 2016), in conjunction with the 23rd Asia-Pacific Software Engineering Conference (APSEC 2016), University of Waikato, Hamilton, New Zealand, 6th December 2016.
Revisiting the Relationship Between Code Smells and RefactoringNorihiro Yoshida
Slides for the paper "Revisiting the Relationship Between Code Smells and Refactoring" in the Proceedings of the 24th IEEE International Conference on Program Comprehension (ICPC 2016), Austin, TX, USA, May 2016
Mining the Modern Code Review Repositories: A Dataset of People, Process and ...Norihiro Yoshida
Slides for the data paper "Mining the Modern Code Review Repositories: A Dataset of People, Process and Product" in the proceedings of the 13th International Conference on Mining Software Repositories (MSR 2016), Austin, TX, May 2016.
1) The document proposes a technique to support on-demand code reuse without interrupting coding tasks. It builds a source code corpus from open source projects and allows users to search for and complete code snippets without specifying search keywords.
2) An evaluation found the system can build large corpora from millions of lines of code within hours and return search results within 500ms. Precision is high for short inputs and highly similar code, but lower for less similar code.
3) Future work includes improving partitioning of code into keys and values, matching rules, and ranking search results to better support reuse of less similar code.
This document describes two datasets for analyzing open source software code review processes. The datasets contain information about who submits and reviews code patches, the types of roles reviewers perform, review activity metrics, and reviewer statistics. Example applications include social network analysis of collaboration between reviewers and analyzing how reviewers' roles relate to privileges like testing code. The datasets are available online and are aimed to provide more detailed information about reviewers compared to downloading full review repository JSON files.
L’équipe du projet BeBoP a proposé un webinaire le 30 mai 2024 pour découvrir comment la technologie vidéo, combinée à l’intelligence artificielle, se met au service de l’analyse du comportement des taurillons.