1 - 7 av 7
rss atomLänk till träfflistan
Permanent länk
Referera
Referensformat
  • apa
  • harvard1
  • ieee
  • modern-language-association-8th-edition
  • vancouver
  • Annat format
Fler format
Språk
  • de-DE
  • en-GB
  • en-US
  • fi-FI
  • nn-NO
  • nn-NB
  • sv-SE
  • Annat språk
Fler språk
Utmatningsformat
  • html
  • text
  • asciidoc
  • rtf
  • Presentation: 2019-04-25 13:00 B3, Stockholm
    Ríos Bayona, Francisco
    KTH, Skolan för arkitektur och samhällsbyggnad (ABE), Byggvetenskap, Jord- och bergmekanik.
    Analytical and numerical approaches to estimate peak shear strength of rock joints2019Licentiatavhandling, sammanläggning (Övrigt vetenskapligt)
    Abstract [sv]

    Bergsprickors skjuvhållfasthet är en avgörande faktor för att kunna bestämma säkerheten mot gliding för dammar där sub-horisontella utbredda bergsprickor existerar. Samtidigt är parametern svår att bestämma då den påverkas av flera faktorer som sprickytans råhet, vittringsgrad, normalspänning, skala samt passning. Skjuvhållfasthet av bergsprickor kan bestämmas genom att använda empiriska och analytiska brottkriterier samt numeriska metoder. Problemet med de befintliga metodikerna är att de inte beaktar inverkan från sprickans passning. Detta innebär att hållfastheten riskerar att överskattas.Det övergripande syftet med denna licentiatuppsats är att studera, utveckla och tillämpa analytiska och numeriska metoder för uppskattning av skjuvhållfasthet för naturliga och ofyllda bergsprickor. I ett första steg beräknades skjuvhållfastheten för ett antal naturliga och ofyllda bergsprickor. Detta gjordes genom att mäta aperturen baserat på högupplöst skanning och en vidareutvecklad version av det analytiska kriteriet som föreslogs av Johansson och Stille 2014. I ett andra steg användes PFC2D för att genomföra numeriska skjuvtester på två-dimensionella sprickprofiler baserat på högupplöst skanning av perfekt passade och draginducerade bergsprickor.Resultaten från uppskattad skjuvhållfasthet med den analytiska metodiken visar på en bra överensstämmelse i jämförelse med de utförda skjuvförsöken. Resultaten från de utförda analyserna med PFC2D visar på en något lägre skjuvhållfasthet än vad som observeras i verkligheten.Den utvecklade analytiska metodiken, tillsammans med de avancerade tekniker som idag finns för att mäta sprickytornas råhet, bedöms kunna utgöra ett första steg mot att bättre kunna bestämma den storskaliga skjuvhållfastheten för bergsprickor i fält.

  • Presentation: 2019-05-03 10:00 D2, Stockholm
    Müller, Matias
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Reglerteknik.
    Regret and Risk Optimal Design in Control2019Licentiatavhandling, monografi (Övrigt vetenskapligt)
    Abstract [en]

    Engineering sciences deal with the problem of optimal design in the face of uncertainty. In particular, control engineering is concerned about designing policies/laws/algorithms that sequentially take decisions given unreliable data.

    This thesis addresses two particular instances of optimal sequential decision making for two different problems. The first problem is known as the H-norm (or l2-gain, for LTI systems) estimation problem, which is a fundamental quantity in control design through the small gain theorem. Given an unknown system, the goal is to find the maximum l2-gain which, in a model-free approach, involves solving a sequential input design problem. The H-norm estimation problem (or simply "gain estimation problem") is cast as the composition of a multi-armed bandit problem generating data, and an optimal estimation problem given that data. It is shown that the separation of the gain estimation problem into these two sub-problems is optimal in a mean-square sense, as the expected estimation error asymptotically matches the Cramér-Rao lower bound.

    In the second part of the thesis, we address the problem of risk-coherent optimal control design for disturbance rejection under uncertainty, where optimality is studied from an H2 and an H sense. We consider a parametric model for the plant and the noise spectrum, where the modeling error between the model and the real system is uncertain. This uncertainty is condensed in a probability density function over the different realizations of the parameters defining the model. We use this information to design a controller that minimizes the risk of falling into poor closed-loop performance within a financial theory of risk framework. A systematic approach for the design of H2- and H-optimal controllers is proposed in terms of a quadratically-constrained linear program and a semi-definite program, respectively. An interesting application to H2-optimal design under covert attacks is also developed.

  • Presentation: 2019-05-06 13:00 FA31, Stockholm
    Petrou, Georgia
    KTH, Skolan för kemi, bioteknologi och hälsa (CBH), Kemi, Glykovetenskap.
    Investigating mucin interactions with diverse surfaces for biomedical applications2019Licentiatavhandling, sammanläggning (Övrigt vetenskapligt)
    Abstract [sv]

    Slemhinnor täckts av slem, en viskoelastisk hydrogel som spelar en viktig roll för att skydda mot mekanisk nötning och patogener. Muciner, en grupp av tätt glykosylerade proteiner, spelar en viktig roll i viskoelasticiteten av slem. Eftersom muciner kan interagera med diverse ytor är det av stort intresse att utforska och manipulera sådana interaktioner för biomedicinska tillämpningar. Denna avhandling presenterar undersökningar av mucininteraktioner med hydrofoba ytor för att identifiera de viktigaste egenskaperna hos mucinsmörjning, samt beskriver utveckling av material som optimerades för att interagera med muciner.

     

    I Artikel I undersökte vi de domäner som bidrar till  mucinernas enastående kapacitet som smörjmedel. Resultaten visade att mucinernas hydrofoba terminaldomäner spelar en avgörande roll vid adsorption och smörjning på hydrofoba ytor. Mer specifikt, proteasklyvning av svinmagemuciner och salivmuciner resulterade i klyvningen av dessa domäner och förlust av smörjning och ytadsorption. Genom att länka hydrofobiska fenylgrupper till de uppbrutna mucinerna, lyckades deras smörjningsegenskaper förbättras. Denna strategi förbättrade också smörjningsegenskaper hos andra polymerer som annars har  dåliga smörjningsegenskaper.

     

    I Artikel II utvecklade vi mukoadhesiva material baserade på genetiskt modifierade partiella spindelsilkeproteiner. Spindelsilkeproteinet 4RepCT funktionaliserades framgångsrikt med tillsats av sex lysiner (pLys-4RepCT), eller den mänskliga Galectin-3 karbohydrat igenkänningsdomänen (hGal3-4RepCT). Syftet med dessa strategier var antingen att öka ospecifika elektrostatiska interaktioner mellan de positiva lysinerna och de negativa mucinerna, eller den specifika bindningen mellan hGal3 och mucin-glykanerna. Beläggningar, fibrer, nät och skum framställdes från de nya silkeproteinerna. Efter att adsorption av svinmagsmuciner och bovina submaxillära muciner uppmätts, visade de nya silkeproteinerna förbättrad mucin adsorption.

     

    Detta arbete visar hur interaktioner mellan mucin-material kan bidra med värdefull information för utvecklingen av nya biomaterial. Mucinbaserade och mucininspirerade smörjmedel kan ge önskad smörjning till ett brett spektrum av ytor, medan vår nya silkesbaserad material kan vara ett värdefullt verktyg för utvecklingen av slemhinneförband.

  • Presentation: 2019-05-10 09:30 Sal B, Stockholm
    Roozbeh, Amir
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Kommunikationssystem, CoS. Ericsson Research.
    Toward Next-generation Data Centers: Principles of Software-Defined “Hardware” Infrastructures and Resource Disaggregation2019Licentiatavhandling, monografi (Övrigt vetenskapligt)
    Abstract [en]

    The cloud is evolving due to additional demands introduced by new technological advancements and the wide movement toward digitalization. Therefore, next-generation data centers (DCs) and clouds are expected (and need) to become cheaper, more efficient, and capable of offering more predictable services.

    Aligned with this, we examine the concept of software-defined “hardware” infrastructures (SDHI) based on hardware resource disaggregation as one possible way of realizing next-generation DCs. We start with an overview of the functional architecture of a cloud based on SDHI. Following this, we discuss a series of use-cases and deployment scenarios enabled by SDHI and explore the role of each functional block of SDHI’s architecture, i.e., cloud infrastructure, cloud platforms, cloud execution environments, and applications.

    Next, we propose a framework to evaluate the impact of SDHI on techno-economic efficiency of DCs, specifically focusing on application profiling, hardware dimensioning, and total cost of ownership (TCO). Our study shows that combining resource disaggregation and software-defined capabilities makes DCs less expensive and easier to expand; hence they can rapidly follow the exponential demand growth. Additionally, we elaborate on technologies behind SDHI, its challenges, and its potential future directions.

    Finally, to identify a suitable memory management scheme for SDHI and show its advantages, we focus on the management of Last Level Cache (LLC) in currently available Intel processors. Aligned with this, we investigate how better management of LLC can provide higher performance, more predictable response time, and improved isolation between threads. More specifically, we take advantage of LLC’s non-uniform cache architecture (NUCA) in which the LLC is divided into “slices,” where access by the core to which it closer is faster than access to other slices. Based upon this, we introduce a new memory management scheme, called slice-aware memory management, which carefully maps the allocated memory to LLC slices based on their access time latency rather than the de facto scheme that maps them uniformly. Many applications can benefit from our memory management scheme with relatively small changes. As an example, we show the potential benefits that Key-Value Store (KVS) applications gain by utilizing our memory management scheme. Moreover, we discuss how this scheme could be used to provide explicit CPU slicing – which is one of the expectations of SDHI  and hardware resource disaggregation.

  • Presentation: 2019-05-17 15:50 E2, Stockholm
    Khosrowjerdi, Hojat
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Teoretisk datalogi, TCS.
    Learning-based Testing for Automotive Embedded Systems: A requirements modeling and Fault injection study2019Licentiatavhandling, sammanläggning (Övrigt vetenskapligt)
    Abstract [en]

    This thesis concerns applications of learning-based testing (LBT) in the automotive domain. In this domain, LBT is an attractive testing solution, since it offers a highly automated technology to conduct safety critical requirements testing based on machine learning. Furthermore, as a black-box testing technique, LBT can manage the complexity of modern automotive software applications such as advanced driver assistance systems. Within the automotive domain, three relevant software testing questions for LBT are studied namely: effectiveness of requirements modeling, learning efficiency and error discovery capabilities.

    Besides traditional requirements testing, this thesis also considers fault injection testing starting from the perspective of automotive safety standards, such as ISO26262. For fault injection testing, a new methodology is developed based on the integration of LBT technologies with virtualized hardware emulation to implement both test case generation and fault injection. This represents a novel application of machine learning to fault injection testing. Our approach is flexible, non-intrusive and highly automated. It can therefore provide a complement to traditional fault injection methodologies such as hardware-based fault injection.

  • Presentation: 2019-05-22 10:00 643, Stockholm
    Darwish, Rami
    KTH, Skolan för industriell teknik och management (ITM), Industriell ekonomi och organisation (Inst.), Industriell Management.
    The Missing link: Business Models Lock-in in Sociotechnical Transitions2019Licentiatavhandling, monografi (Övrigt vetenskapligt)
    Abstract [en]

    Societal and environmental challenges present challenges for our current industrial systems. In order to respond to these difficulties, various alternative systems have been suggested, as they promise sustainability and increased societal quality of life enabled by innovative technologies. These future solutions hold the capacity to solve problems by unlocking considerable business potential. However, the journey to the forthcoming era will bring dramatic changes, not only to the success of incumbent industrial stakeholders but also to their very existence. The upcoming changes are impregnated with hazards to current business models of successful organizations. So, one may ask what impact future technologies may have on the realms that industrial actors live in? To disentangle the complexity of the unknowns, multitudes of collaborative efforts in protected spaces have emerged globally to experiment with potential systems on the road to sociotechnical transitions.

    The transport sector is undergoing efforts towards transitions to future sustainable systems. This sector has a special focus when it comes to sustainability challenges due to its substantial economic and environmental impact.  Bus systems are at the heart of this challenge due to the central role they play in urban mobility. Hence, different fuels and charging technologies for buses have been tested in pilot projects to facilitate the march towards sustainability; electric charging is one of the promising technologies, which achieve this aim. However, current business models of incumbent transport stakeholders seem to be problematic, and changes to facilitate the transitions seem to be complex.

    Extant literature indicates a critical role of business models under sociotechnical transitions. Theoretically, there is an underlying need for incumbents to change their business models to reap the benefits of innovative technologies. However, this change is difficult and potential business models are far from clear. With that, the dynamics of business models under transition remains as an underexplored area, and the challenge to incumbent business models poses itself as an interesting area to gauge. Under this umbrella, a question arises regarding how the pressure on incumbent business models interacts with systemic innovations.

    This thesis is a case study of an incumbent bus operator participating in a pilot project on a future bus system. The case study is in-depth in nature and investigates the potential business model of a bus operator in a multiple stakeholder pilot project, which tests an inductive electric hybrid bus. With a strong empirical exploratory nature, this thesis is built on an “insider” single case study that occurred in the year 2016-2017. The focus of the study is on the pressure on bus operator business model in the face of systemic innovation. The findings reveal positive future value proposition, disrupted value creation, and unclear value capture in the potential business model of the operator. Moreover, the findings show lock-in and resource dependence situation of the operator’s current business model. The lock-in of the business model hinder the transition to future sociotechnical bus system and makes it difficult to commercialize the new technology.

    The outcome of this thesis speaks to a significant influence of history and the regulator, manifested by rules on the future of business models of commercial incumbent stakeholders. This demonstrates lock-in may prove to be a major impediment, and that unchained and flexible business model of incumbents is critical for further continuation of successful shifts. Given these findings, this thesis suggests applying the business model lens to pilot projects for sustainability. This would aid in better comprehending how current business models may facilitate or hinder favorable transitions. This knowledge informs both managerial decisions and policy making, especially when it comes to resource optimization and investment decisions.

  • Presentation: 2019-06-13 09:30 Sal B, Kista
    Farshin, Alireza
    KTH, Skolan för elektroteknik och datavetenskap (EECS), Kommunikationssystem, CoS, Network Systems Laboratory (NS Lab).
    Realizing Low-Latency Internet Services via Low-Level Optimization of NFV Service Chains: Every nanosecond counts!2019Licentiatavhandling, monografi (Övrigt vetenskapligt)
    Abstract [sv]

    Tack vare den senaste tekniska utvecklingen inom beräkningar i molnet(“cloud computing”) används allt fler tillämpningar i molnlösningar. Flera avdessa moderna molnbaserade tillämpningar kräver korta svarstider är låga ochatt dessa ska vara förutsägbara och ligga inom givna gränser. Den nuvarandemolninfrastrukturen är dock otillräcklig eftersom den inte kan uppfylla dessa krav,på grund av olika typer av begränsningar i både hårdvara och mjukvara.

    I denna licentiatavhandling beskrivs försök att minska fördröjningen iinternettjänster genom att noggrant studera den nuvarande tillgängligainfrastrukturen, optimera den och förbättra dess prestanda. Fokus ligger påatt optimera prestanda för nätverksfunktioner som realiseras med hjälp avstandardhårdvara, känt som nätverksfunktionsvirtualisering (NFV). Prestanda hosNFV är en av de viktigaste källorna till fördröjning i internettjänster.

    Det första bidraget är relaterat till att optimera mjukvaran. Detta projektbörjade med att undersöka möjligheten att “superoptimera” virtualiseradenätverksfunktioner (VNF). Detta inleddes med en litteraturöversikt av tillgängligasuperoptimeringstekniker, och sedan valdes ett av de toppmodernasuperoptimeringsverktygen för att analysera de viktiga mätvärden som påverkartillämpningssprestanda. Resultatet av vår analys visade att bättre cache-mätningar potentiellt skulle kunna förbättra prestanda för alla tillämpningar.

    Det andra bidraget i denna avhandling utnyttjar resultaten från den förstadelen genom att ta ett steg mot att optimera cache-prestanda för tidskritiskakedjor av NFV-tjänster. Genom att göra så reducerade vi de långa fördröjningarnahos sådana system som kördes vid 100 Gbps. Detta är en viktig bedrift eftersomdetta ökar sannolikheten för att uppnå en begränsad och förutsägbar fördrörninghos internettjänster.