1. Trang chủ
  2. » Công Nghệ Thông Tin

Computer Security: Chapter 4 - Introduction to Trust in Computing

22 62 0

Đang tải... (xem toàn văn)

Tài liệu hạn chế xem trước, để xem đầy đủ mời bạn chọn Tải xuống

THÔNG TIN TÀI LIỆU

Thông tin cơ bản

Định dạng
Số trang 22
Dung lượng 440,02 KB

Các công cụ chuyển đổi và chỉnh sửa cho tài liệu này

Nội dung

Computer Security: Chapter 4 - Introduction to Trust in Computing presents about Trust in Social & Computing Systems, Selected Trust Characteristics, Selected Research Issues in Trust, Avoiding Traps of Trust Complexity, Trust and Privacy, Trust & Pervasive Computing.

Trang 1

Presented by:

Prof. Bharat Bhargava Department of Computer Sciences and Center for Education and Research in Information Assurance and Security (CERIAS)

Purdue University with contributions from Prof. Leszek Lilien Western Michigan University and  CERIAS, Purdue University

* Supported in part by NSF grants IIS­0209059, IIS­0242840, ANI­0219110, and Cisco URP grant.

Trang 3

 Used consciously and explicitly in open or dynamic systems

 Example: In a big city ­ explicit rules of behavior in diverse trust relationships

 E.g., Build up trust by asking friends or recommendation services for a dependable plumber

Trang 4

 Fast degradation of trust and its slow recovery

 This defends against smart violators

Trang 5

 Trust is pervasive & beneficial in complex social systems ­ Why not exploit  pervasive trust  as a  paradigm  in computing? 

Trang 6

3/23/04 6

 Dimensions  of trust

 Competence – Does he possess qualifications to do it

 Intention – Is he willing to do it? 

 Degrees  of trust ­ instead of binary (all­or­nothing) trust

 “You can’t trust everybody but you have to trust somebody ”

 Otherwise, you’d be paranoid

 Extreme costs of being paranoid

 Looking over one’s shoulder all the time

 An untrusting system (even just implicitly) would be paranoid, inefficient

 Trust is  asymmetric

 E.g., “I trust you more than you trust me”

 In general, trust is  bidirectional

 But one direction can be implicit

[cf M Reiter and M Atallah, NSF IDM Workshop, August 2003]

Trang 7

 System excessive/insufficient trust demands can reduce its usability

 If a system requires  too many credentials , its usability decreases

 If a system requires  no credentials   (e.g., no password) , users don’t trust it  =>  usability also decreases  (surprise?)

Trang 10

3/23/04 10

4) Avoiding Traps of Trust Complexity (2)

 => Words of caution on using the trust paradigm (cont.):

3) Excessive  reliance on explicit trust relationships  hurts  performance

 Paranoid ­ avoid paranoia

 E.g., modules in a well­integrated system should rely on implicit trust

 Just as villagers do

 In a crowd of entities, only some communicate directly

 Only they need to use trust

 Even fewer need to use trust explicitly

Trang 11

 Threats of privacy violations result in lower trust

 Lower trust leads to isolation and lack of collaboration

Trang 12

3/23/04 12

5) Trust and Privacy (2)

 Thus,  privacy and trust are closely related

 Privacy­trust tradeoff: Entity can trade privacy for a corresponding gain in its partners’ trust in it

 The scope of an entity’s privacy disclosure should be proportional to the benefits expected from the interaction

 As in social interactions

 E.g.: a customer applying for a mortgage must reveal much more personal data than someone buying a book

 Trust  must be established  before  a privacy  disclosure

 Data – provide quality an integrity

 End­to­end communication – sender authentication, message integrity

 Network routing algorithms – deal with malicious peers, intruders, 

security attacks

Trang 13

 Optimize  degree of  privacy traded  to gain trust

 Disclose minimum needed for gaining partner’s necessary trust level

 To optimize, need  privacy  &  trust measures

Trang 14

3/23/04 14

5) Trust and Privacy (4)

 Summary:  Trading Information for Trust in Symmetric and  Asymmetric Negotiations  ­  When/how can partners trust  each other?  

 No trading of info for trust (info is private or not)

 Asymmetric:

Initial „full” trust of Weaker into Stronger and no trust of Stronger 

into Weaker / stepwise trust growth / establishes „full” trust of Stronger into Weaker

Trades private info for trust

Trang 15

 Privacy­Trust Tradeoff:  Trading Privacy Loss for Trust Gain

 We’re focusing on  asymmetric   trust negotiations:

The weaker party trades a  (degree of)  privacy loss for  (a degree  of)  a trust gain as perceived by the stronger party

 Approach to  trading privacy for trust :     [Zhong and Bhargava, Purdue]

Trang 17

 An advertiser? a nosy neighbor? Big Brother?

 Questions such as “Can I trust my refrigerator?” will not be jokes

 The refrigerator snitching on its owner’s dietary misbehavior for her  doctor

Trang 18

3/23/04 18

6) Trust & Pervasive Computing (3)

 Radically changed,  pervasive computing  environments 

demand  new  approaches to computer privacy & security

 Our belief:  Socially based paradigms  (such as trust­based 

paradigms for privacy & security)  will play a big role  in pervasive  computing

 Solutions will vary (as in social settings)

 Heavyweighty solutions for entities of high intelligence and capabilities (such as humans and intelligent systems) 

interacting in complex and important matters

 Lightweight solutions for less intelligent and capable entities interacting in simpler matters of lesser consequence

Trang 19

 Example: Use of Pervasive Trust for Access Control

 Use of pervasive trust for access control

perimeter-defense authorization model

Investigated by B Bhargava, Y Zhong, et al., 2002 - 2003

 using trust ratings:

 direct experiences

 second-hand recommendations

 using trust ratings to enhance the role-based access control (RBAC) mechanism

Trang 21

11 “Fraud Formalization and Detection,” by B. Bhargava, Y. Zhong and Y. Lu, Proc. of 5th 

Intl. Conf. on Data Warehousing and Knowledge Discovery (DaWaK 2003), Prague,  Czech Republic, September 2003.  http://

www.cs.purdue.edu/homes/zhong/papers/fraud.pdf

12 “e­Notebook Middleware for Accountability and Reputation Based Trust in Distributed Data 

Sharing Communities,” by P. Ruth, D. Xu, B. Bhargava and F. Regnier, Proc. of the  Second International Conference on Trust Management (iTrust 2004), Oxford, UK, March 

2004.  http://www.cs.purdue.edu/homes/dxu/pubs/iTrust04.pdf

13 “Position­Based Receiver­Contention Private Communication in Wireless Ad Hoc 

Networks,” by X. Wu and B. Bhargava, submitted to the Tenth Annual Intl. Conf. on Mobile  Computing and Networking (MobiCom’04), Philadelphia, PA, September ­ October 2004.

Trang 22

3/23/04 22

THE END

Ngày đăng: 30/01/2020, 11:44

TỪ KHÓA LIÊN QUAN