את תוכנית הכנס ארגן סהרון רוסט
9:30-10:00 |
|
|
10:10-11:00 |
|
|
הרצאת פתיחה: עוזי מוטרו, האוניברסיטה העברית |
||
11:00-11:20 |
הפסקת קפה ומעבר לכיתות |
|
11:20-13:00 |
מושבים מקבילים Invited talks |
|
מושבI : סטטיסטיקה ברפואה (תקצירי הרצאות) Neuroprotective and disease modifying clinical trial design in
Parkinson Disease Statistician’s role in a pharmaceutical industry Alternative implementations of Whitehead's
methodology for blinded sample size reassessment in survival studies Estimating and testing interactions in linear
regression models when explanatory variables are subject to non-classical
measurement error |
מושב II: סטטיסטיקה רשמית (תקצירי הרצאות) תעסוקה ושכר של מקבלי תואר
ראשון: מעקב לבוגרי 2000-2004 סקר הכנסות משולב – האם קיימת
הצדקה לשילוב נתונים ממקורות שונים? מתודולוגיה של קישור רשומות
בין סקרי משקי הבית למרשם האוכלוסין Nonparametric estimation of non-response
distribution in the Israeli Social Survey |
|
13:00-14:00 |
ארוחת צהריים הישיבה השנתית של האיגוד הישראלי לסטטיסטיקה |
|
14:00-15:00 |
מושבים מקבילים: Contributed
talks |
|
מושב III: מתודולוגיה ותאוריה (תקצירי הרצאות) Maximum Likelihood Approach under Indirect Setup Adjusted Bayesian Inference for Selected Parameters Simultaneous testing of several families of
hypotheses |
מושב IV: יישומים (תקצירי הרצאות) Electronic Records Of Undesirable Driving Events Stochastic Dynamic Allocation of Kidneys Based on
Historical Data Logs How to Dig for DEGs |
|
15:00-16:40 |
מושבים מקבילים Invited
talks |
|
מושב V: ביואינפורמטיקה וביוסטטיסטיקה (תקצירי הרצאות) The Quality Preserving Database: A Computational Framework
for Encouraging Collaboration, Enhancing Power and Controlling False
Discovery Improving the Performance of the FDR Procedure
Using an Estimator for the Number of True Null Hypotheses Matrices, Modules and Motifs for Understanding Gene
Regulation On Combining and Contrasting Brains |
מושב VI: סטטיסטיקה תעשייתית (תקצירי
הרצאות) Process and Service Optimization via Bayesian
Networks On Non-Homogeneous Markov Reward Models for
Reliability Measures Estimation of Sensitivity Analysis, Computational Models And
Statistics: A Case Study Of A Nuclear
Waste Repository פיתוח תוכנית דגימה מבוססת
כושר תהליך Cpk |
|
16:40-17:00 |
הפסקת קפה ומעבר לאודיטוריום 001 בבניין 98 |
|
17:00-18:10 |
חלוקת פרסי האיגוד |
|
דיון פומבי: הסטטיסטיקה באוניברסיטאות בארץ לאן? |
הרצאת פתיחה: דנ"א
במשפט – מחוויותיו של עד מומחה
עוזי מוטרו
המחלקה לסטטיסטיקה והמחלקה לאבולוציה, סיסטמטיקה
ואקולוגיה
האוניברסיטה העברית בירושלים
בתקופה האחרונה אנו עדים לשימוש
גובר והולך בזיהוי פורנזי על פי סמני דנ"א. מהם אותם סמני דנ"א, כיצד
נעשה הזיהוי במקרים השונים, מהם ההיבטים ההסתברותיים והסטטיסטיים של הזיהוי – בכך
נעסוק, ולא נדלג על דוגמאות מהחיים.
מושבI : סטטיסטיקה ברפואה
יו"ר: יוסי לוי, טבע
Neuroprotective
and disease modifying clinical trial design in Parkinson Disease
Eli Eyal, Teva Pharmaceutical Industries
A neuroprotective therapy is the
most important unmet medical need in Parkinson's Disease .
Several promising agents in the laboratory have been tested in the clinic, but
none has been established in clinical trials to have a disease modifying
effect. The delayed start design was developed to try to avoid a symptomatic
confound when testing a potential neuroprotective
therapy. In this study design, patients are randomly assigned to study drug or
placebo in the first phase of the study, and both groups receive the active
drug in the second phase. If benefits seen at the end of phase I persist through
the end of phase II, they cannot be explained by a symptomatic effect (as
patients in both groups are receiving the same medication) and benefits in the
early start group must relate to the early initiation of the treatment. The
delayed start design was used to assess the potential disease modifying effects
of rasagiline in a prospective double blind
controlled trial (the ADAGIO study). The hypothesis of disease modifying effect
is tested by looking on the behavior of the change from baseline in the Unified
Parkinson Disease Rating Scale (UPDRS) comparing slopes estimates and estimates
at end of trial from Mixed Models with Repeated Measures (MMRM) analyses. In this talk I will describe the ADAGIO trial
design, the efficacy primary hypotheses, the statistical models and the
challenges that we had in power calculation, model assumptions, and sensitivity
analyses to missing observations.
Statistician’s
role in a pharmaceutical industry
Daniel Rothenstein, Quark Pharmaceuticals
Chronic renal failure (CRF) is a long-standing, progressive
deterioration of renal function. CRF can be roughly categorized as diminished
renal reserve, renal insufficiency, and renal failure (end-stage renal
disease). Chronic loss of function causes generalized wasting (shrinking in
kidney size / mass) and progressive scarring within all parts of the kidneys.
Quark Pharmaceuticals developed a Monoclonal Antibody (MAB)
to a proprietary target gene as a potential therapeutic agent against renal
fibrosis. The rat 5/6 Nephrectomy model was selected
for testing the efficacy of the MAB.
This presentation will emphasize the statistician’s role and
contribution throughout all the study stages: (a) Selection and
characterization of the animal model to be used in order to assess the effect
of the MAB in the prevention of chronic renal failure (CRF) development, (b) Development of
the MAB, (c) Testing MAB delivery efficiency in the animal model in order to
determine a therapeutic regime (dosage and schedule)
Alternative
implementations of Whitehead's methodology for blinded sample size reassessment
in survival studies
Yossi Levy, Teva Pharmaceutical Industries
Whitehead (2001) proposed a
general framework for a blinded mid-trial design review of a survival clinical trial,
and a particular implementation example was given by Whitehead et. al. (2001). However, there are
other possible ways to implement this framework. In this talk, I will describe
alternative implementations of the framework, and compare these alternatives
using simulations.
Estimating
and testing interactions in linear regression models when explanatory variables
are subject to non-classical measurement error
H. Murad1, V. Kipnis2, D. Midthune2, O.
Kalter-Leibovici3, L. S. Freedman1
1 Biostatistics Unit, and 3Unit
for Cardiovascular Epidemiology, Gertner Institute for Epidemiology and Health
Policy Research, , Tel-Hashomer, ISRAEL
2 Biometry Research Group, Division of
Cancer Prevention, National Cancer Institute Rockville, MD, US
Estimating and testing
interactions in a linear regression model when covariates are subject to
measurement error (ME) is complex, since the interaction term is a product of
two or more covariates and involves errors of more complex structure.
We have described in recent
work [1] how to estimate and test for interactions when covariates are normally
distributed and subject to classical ME. We proposed a version of regression
calibration (RC), and showed that it yields consistent estimators and standard
errors, and that its test for interaction appears to perform well. In many
applications the classical ME model does not hold, particularly when
measurements are based on self-report. In this paper, we generalize our RC
approach for interaction models to a class of non-classical ME models.
Motivated by an application that includes a sub-sample calibration with
imperfect reference instruments, we account for the extra uncertainty involved
in estimating the ME parameters, using the stacking equations method. We apply
our method to data from the Observing Protein and Energy Nutrition (OPEN)
study, where the level of errors is high, and find that RC does not work well
for estimation, yielding inflated parameters and standard error estimates. This
problem is overcome by extending the method to efficient RC [2], where the
estimator combines the information about the parameters of interest contained
in the sub-sample calibration study with our RC estimator from the main study,
using a generalized inverse-variance weighted average. We also developed an
efficient version of the method of moments that does not assume normally
distributed covariates. Using simulations, based on the design of the OPEN
study, we show that in sub-samples of 100-500 both efficient RC and efficient
MM perform well. In another set of simulations, we investigate the Type I error
rate of the interaction test and show that the efficient RC-based test is
slightly liberal when the level of ME is high.
1. Murad, H. and
Freedman, L. S. (2007). Estimating and testing interactions in linear
regression models when explanatory variables are subject to classical
measurement error. Statistics in Medicine 26,
4293-4310.
2. Spiegelman,
D., Carroll, R. J., and Kipnis, V. (2001). Efficient
regression calibration for logistic regression in main study/internal
validation study designs with an imperfect reference instrument. Statistics
in Medicine 20, 139-160.
מושב II: סטטיסטיקה
רשמית
יו"ר: צחי מקובקי, למ"ס
תעסוקה ושכר של
מקבלי תואר ראשון: מעקב לבוגרי 2000-2004
ד"ר דמיטרי רומנוב, מדען ראשי, למ"ס
פרסום זה
מציג נתונים על מגמות בתעסוקה והכנסה מעבודה בקרב מקבלי תואר ראשון בין השנים
2000-2004. הדוח מתבסס על נתונים מינהליים שנאספו על
ידי הלשכה המרכזית לסטטיסטיקה ורשות המסים בישראל, ונועד להשלים פרסומים קיימים על
הכנסות בקרב מקבלי תואר ראשון, באמצעות הצגת תמונה רחבה ומפורטת לגבי תהליך כניסתם
לשוק העבודה המקצועי. הדוח עוקב אחר אוכלוסיית מקבלי תואר ראשון הרשומים בתיקי מס
הכנסה במשך תקופה של עד חמש שנים, ובוחן את מהלך תעסוקתם לפי אפיונים רבים של
השכלה ודמוגרפיה. מאחר שפרסום זה מבוסס גם
על נתונים מינהליים, הוא מספק כיסוי כמעט מלא על נתוני
התעסוקה הרשמיים במשק (כמדווח למס הכנסה), ובכך מתגבר על מגבלות מסורתיות של
נתונים המסתמכים על סקרים, כגון טעויות דגימה והטיה בקבוצות קטנות.
זוהי הפעם הראשונה שדוח מפורט מסוג זה נערך בישראל, והנתונים בו יכולים לסייע
למספר רב של משתמשים. מבחינת ההון האנושי, פרסום זה מספק מידע חשוב על ערכי ההכנסה
הקשורים לתוכניות לימוד מסוימות. עבור אלה המבקשים להמשיך בלימודים, הנתונים
יכולים להצביע על ההשפעה שתהיה להחלטותיהם לגבי תוכניות לימוד שונות – הן לגבי
הכנסה עתידית והן לגבי אפשרויות תעסוקה. כמו כן, בעזרת תוצאות המחקר, יוכלו
מעסיקים פוטנציאליים לייעל את פעילותם הכלכלית, בכל הקשור לשכר עבודה לפי תחומי
השכלה ספציפיים (דהיינו, סוג התואר ודרגתו).
קובעי מדיניות וחוקרים, הן בתחום החינוך והן בתחום התעסוקה, יכולים אף הם להפיק
תועלת מניתוח דפוסי הכנסה ותעסוקה של מקבלי תואר ראשון בתקופה האחרונה. נתונים אלה
יכולים לספק, בעקיפין, מידע לגבי איכותם של תוכניות לימוד ומוסדות מסוימים וכן על
תרומתם לשוק העבודה.
ולבסוף, לאור התפקיד החשוב של ההשכלה גבוהה בקביעת הכנסה ותעסוקה לאורך חיים
שלמים, נתונים אלה יכולים לסייע לקבוצות המעוניינות לקדם שוויון הזדמנויות לשכבות
חלשות ולקבוצות מיעוט, הן ברכישת השכלה גבוהה והן בהשתלבות בשוק העבודה.
סקר הכנסות
משולב – האם קיימת הצדקה לשילוב נתונים ממקורות שונים?
נעם כהן, למ"ס
בלשכה נערכים
שני סקרים אשר אוספים מידע בנוגע להכנסות משקי הבית – סקר הכנסות וסקר הוצאות משקי
בית (הו"מ).
סקר הכנסות, המתבצע
באופן שוטף החל משנת 1965, הוא סקר נלווה לסקר כח-אדם (סכ"א), כאשר השייכים לאוכלוסיית סקר הכנסות מתבקשים
לדווח על הכנסותיהם. סקר הו"מ מתבצע באופן שוטף
החל משנת 1997 ואחת ממטרותיו העיקריות היא לקבוע את משקל כל רכיב בסל הצריכה של
"מדד המחירים לצרכן" על סמך מרכיבי התקציב של משקי הבית. תהליך הדגימה
בשני הסקרים דומה, ונערך בנפרד לכל סקר באופן בלתי תלוי. יחידת הדגימה הסופית היא
דירה ונחקרים כל משקי הבית הגרים בה במועד החקירה (בדר"כ
מ"ב יחיד). החל משנת 1997 נתוני ההכנסות משני הסקרים משולבים לסקר אחד הנקרא
"סקר הכנסות משולב".
בשנת 2002
נערך מחקר בנושא אי-השבה וההטיות הנובעות מכך על נתוני ההכנסות מהמקורות השונים,
זאת על בסיס נתוני השנים 97-99. במחקר מוצג הדפוס השונה של אי ההשבה בין שני
הסקרים עבור מגוון מאפיינים דמוגרפיים וההטיות המתקבלות עקב כך באומדני הכנסות שונים.
מסקנת המחקר היתה, כי תבניות אי השבה שונות יוצרות
הטיות של משתני ההכנסות משני הסקרים לכיוונים מנוגדים ושילובם ב"סקר הכנסות
משולב" מצמצם באופן משמעותי הטיות אלה ומכסה טוב יותר את אוכלוסיית היעד.
עם תכנון סקר
כוח-אדם במתכונת חדשה עולה הצורך בקבלת החלטה בנוגע למבנה סקר הכנסות העתידי.
נערכו סדרת בדיקות שמטרתן היא לבדוק האם תבניות אי ההשבה של שני הסקרים עדיין
"משלימות זו את זו" והטיות הנובעות מאי השבה מקזזות זו את זו, בצורה כזו
המצדיקה את שילוב הסקרים גם כיום. לצורך כך, בוצע ניתוח סטטיסטי עדכני, הכולל גם ניתוח
מקביל לזה המופיע במאמר, המתייחס לנתוני הסקרים לשנים 2004-2007.
מתודולוגיה
של קישור רשומות בין סקרי משפחות למרשם אוכלוסין
תיאודור יצקוב, ראש תחום, למ"ס
ליאת נוקריאן, ראש גף, למ"ס
תהליך קישור
הרשומות בין משיבי סקרי המשפחות של הלשכה למרשם האוכלוסין נועד לצורך הוספת השדה
תעודת זהות. בעזרת מספר תעודת זהות תקין ניתן יהיה לקשר את משיבי סקרי משקי הבית
עם מקורות רבים אחרים, ובכך לשרת מטרות שונות של הלשכה, דוגמת הערכת איכות הנתונים
הנאספים בשדה בהשוואה לאותם נתונים במקורות מנהליים, הוספת משתנים ממקורות מנהליים
לבסיס הנתונים של הסקר והקטנת נטל ההשבה על ידי ויתור על משתנים קיימים ממקורות
מנהליים.
בסקרי
המשפחות של הלשכה המרואיינים מתבקשים לדווח על מספר תעודת הזהות של בני משק הבית,
אך אחוז ההיענות נמוך. רק כ-50% ממשיבי
סקר כוח אדם (להלן סכ"א) וכ-70% משיבי סקר הוצאות משק הבית (להלן הו"מ)
מסרו מספרי תעודת זהות ולכן יש צורך בפעולת הקישור.
המתודולוגיה
לקישור קבצי סקרי המשפחות למרשם האוכלוסין מבוססת על המערכת לקישור רשומות של
המפקד המשולב. בנוסף פותחו אלגוריתמים ותוכניות אשר מנצלות את המידע המשפחתי הקיים
בסקר זאת על-ידי: א) צירוף פרטי קרובי משפחה מדרגה ראשונה לכל פרט; ב) זיווג משקי
בית מהסקר למשפחות מנהליות (או לדיירי בניין) במרשם (משתני בלוק קווזי).
שני סוגי
קישורים מיושמים במערכת: קישור מדויק בו נדרשת הלימה מלאה בין משתני הקישור,
וקישור הסתברותי בו נדרשת הלימה חלקית בין המשתנים. הקישור המדויק מתבצע כולו
בצורה אוטומטית והקישור ההסתברותי מתבצע ברובו בצורה אוטומטית ובחלקו באופן ידני
תמוך מחשב. תהליך הקישור הוא רב שלבי כאשר בכל שלב נבחנת סדרה אחרת של משתני קישור
ורשומה שקושרה מסומנת ואינה ממשיכה בתהליך. מתודולוגית קישור סקרי המשפחות מכילה
19 שלבים של קישור מדויק, 15 שלבים של קישור הסתברותי רגיל ושלב אחד של קישור
הסתברותי משפחתי\קבוצתי המבוסס על משתני בלוק קווזי.
בניסוי שנערך
בעזרת המערכת קושרו קובץ סכ"א רבעוני (רבע 2
2006) וקובץ שנתי של הו"מ
2006 ונמצא קישור לכ-95% מהנדגמים בשני הסקרים. אחוזי הקישור הידני הינם 2.5% בהו"מ ו-4.8% בסכ"א וכל
היתר קושרו באופן אוטומטי. הקשרים שנמצאו נבדקו מדגמית, ואחוז הקישורים השגויים
(טעות קישור מסוג I)
אינו עולה על 0.5%. בנוסף נבדקו ונותחו רשומות להן לא נמצא קישור שחלקן מרכיבות
טעות קישור מסוג II.
Nonparametric estimation of non-response
distribution in the Israeli Social
Survey
Yury Gubman1, Charles F. Manski2,
John V. Pepper3, Dmitri Romanov1
Non-response adjustment in the Israeli
Social Survey (ISS) is based on the MAR assumption. Association of non-response
with key socio-economic characteristics (individual's economic status and
degree of religiosity) which do not correlate strongly with standard survey
design and calibration variables may corrupt the MAR assumption validity. We analyze
survey and item non-response in ISS by estimating non-parametric sharp bounds
for conditional mean to key ISS variables. Statistical tests for checking
validity of MCAR and MAR assumptions are proposed, where the test statistics
are based on the width of the interval between the estimated bounds. We find
significant departures from MAR assumption in the ISS data. Non-response
propensity varies significantly between population groups assumed to be
homogenous according to the survey design. We propose to utilize information
about income and religiosity, available on individual or neighborhood level,
for improving the ISS design.
Keywords: survey non-response, item
non-response, MAR assumption, sharp bounds.
1 Israeli Central Bureau of Statistics, Jerusalem,
Israel
2 Northwestern University, Illinois, USA
3 University of Virginia, Virginia, USA
מושב III:
מתודולוגיה ותאוריה
יו"ר: פליקס אברמוביץ', אוניב' ת"א
Maximum Likelihood Approach under
Indirect Setup
Daniel Berend,
Luba Sapir
In the classical setup of point
estimation problems, one has observations of a random sample from a known
density function with anunknown parameter. In various
applications, though, the observations themselves are unknown. Instead, we have
some information related to these "unobserved observations". Namely,
there is a second distribution, also depending on some parameter and a table of
observations from this distribution; each row of the table arises from an
instance of the second distribution, where the parameter is one of the
observations in the first stage. Our purpose is to estimate the parameter of
the distribution from the first stage in the best way. Note that, in the case
where the second distribution is constant, the problem reduces to the classical
estimation problem. The setup is motivated by practical con-temporary
applications from various domains, such as classification, reputation systems
in e-commerce, survey analysis, etc.
We propose for this setup an approach
for estimating the unknown parameter, based on the data of the second level. We
try to obtain an analogue of the maximum likelihood estimator, which in our
case may be termed indirect maximum likelihood estimator. We illustrate it in
two situations. In one of these, the maximum likelihood estimator can be
obtained in closed-form; in the other it can be obtained only implicitly as a
solution of a certain equation. In the first case we discuss the properties and
intuitive meaning of our estimator, and show ts advantages
vis-a-vis other natural estimators. In the second, we
suggest an iterative scheme, and under certain conditions prove its convergence
to the maximum likelihood estimate.
Adjusted Bayesian inference for selected
parameters
Daniel Yekutieli,
We address the problem of providing
inference for parameters selected after viewing the data. A frequentist
solution to this problem is False Discovery Rate adjusted inference. We explain
the role of selection in controlling the occurrence of false discoveries in
Bayesian analysis, and argue that Bayesian inference may also affected by
selection. We introduce selection-adjusted Bayesian methodology based on the
conditional posterior distribution of the parameters given selection; show how
it can be used to specify selection criteria; explain how it relates to the
Bayesian FDR approach; and apply it to microarray data.
Simultaneous testing of several families
of hypotheses
Marina Bogomolov
and Yoav Benjamini,
Modern statisticians are often
challenged with a big set of hypotheses that are divided into families. For
example, in fMRI research we wish to test the
hypotheses about activation of voxels, where each voxel belongs to some anatomic brain region. These brain
regions define families of hypotheses. In some applications it is desirable to
achieve FDR control within each family along with the overall FDR control. We
will show that combined testing of the entire set of hypotheses does not offer
FDR control within each family, whereas separate testing of each family of
hypotheses does not offer the overall FDR control. We will propose some
in-between approaches: several variations of hierarchical testing methodologies
and a multi-stage hierarchical testing methodology. We will support by
theoretical and simulation results the conjecture that these methodologies
offer both within family and overall FDR control. The overall power of these
methodologies will also be considered.
מושב IV:
יישומים
יו"ר: עדנה שכטמן, אוניב' בן גוריון
Electronic Records Of
Undesirable Driving Events
Oren Musican, Hillel Bar-Gera, Edna Schechtman
Department of Industrial Engineering and
Management
The cause of the majority of road
crashes can be attributed to drivers' behavior. Recent in-vehicle monitoring
technologies enable continuous and detailed measurements of certain behaviors
of drivers. We analyzed the information
received from a novel in-vehicle technology which identifies the occurrence of
undesirable driving events such as extreme braking and accelerating, sharp
cornering and sudden lane changing. Previous studies demonstrated the
connection between these events and accident records, suggesting that events
frequency (EF) is an appropriate surrogate for safety.
We undertook an exploratory analysis to
provide better understanding of EF statistical properties. Some findings are
in-line with driving safety literature such as differences between males and
females and between night and day. Other findings were somewhat less expected,
such as differences in mean EF between trip edges (trip beginning and trip end)
and middle of the trip.
Use of the in-vehicle technology's
continuous and high resolution measurements enabled interesting advanced
statistical analyses. Future research can use our findings to build similar
statistical models to predict the occurrence of undesirable driving events by
other independent variables.
Stochastic Dynamic Allocation of Kidneys
Based on Historical Data Logs
Inbal Yahav Gisela Bardossy
iyahav@rhsmith.umd.edu
According to Scientific Registry of
Transplant Recipients (SRTR) annual statistics, there are more than annual
79,000 candidates with kidney failure End Stage Renal Disease (ESRD), who are
waiting for transplantation in the U.S. Whereas only about 10,000 deceased
donor kidneys are available for transplantation each year, more than 20,000 new
annual candidates are added to the waiting list.
For the last thirty years, the
allocation policy has revolved on a set of priority points that seek to favor
the matching between donor and organ tissues while prioritizing patients that spent
the most time on the waiting list. As the waiting list grew and the population
of candidates aged the allocation process was dominated by the waiting time and
became a merely first come first transplant system.
In this paper we propose a stochastic dynamic
programming approach to the kidney allocation problem. Our method seeks to
maximize a multicriteria objective that balances the
efficiency of the allocations with equity in the system. The novelty of our
method is that incorporates future uncertain allocations (extracted from
historical data logs) to the decision process yet maintains
computational-feasibility regardless of the challenges that the large
dimensionality of the problem presents. We show that our resulting policy is
incentive compatible in sense that neither the policy planner not the patients
have an incentive to deviate from the proposed allocation.
How to Dig for DEGs
Permutation methods are commonly used to
estimate a (null) distribution for nondifferentially
expressed genes in microarray experiments. However, different permutation
methods can lead to different estimates of the null distribution and
consequently can result in substantially different lists of differentially
expressed genes (DEGs).
This article explores the problem of
choosing the appropriate permutation procedure in order to find the right null
hypothesis density. Our method modifies the nonparametric empirical Bayes approach proposed by Efron
et al. (2001) by suggesting a number of permutation procedures, which are used
for an empirical test of the appropriate null hypothesis. We compute the
a-posteriori probabilities of each gene to be differentially expressed.
Analogous to Efron’s method, we assume that the
observed expression scores are generated from a mixture of a distribution for
the affected genes and distribution for the unaffected genes. This mixture
density, as well as the density of the unaffected genes (the null hypothesis
density), are estimated from the empirical distribution of the observed
expression levels using different permutation procedures. The desired inference
about the differential expression for a particular gene is then referred to
these estimated densities.
The methods proposed in this study are
applied to the data produced by the Affymetrix GeneChip and Illumina BeadChip one-color microarray platforms. We provide a
comparison of a number of permutation methods applied to the data from two
differently designed experiments: Microarray Quality Control (MAQC) (2006) and
a pharmacogenetics study of multiple sclerosis
treatment. We use these data sets because they allow us to confirm whether the
proposed permutation procedures are appropriate for use in the most common
designs for microarray experiments. We show that the proposed permutation
techniques may be used when the experimental design includes technical
variation within the same treatment group (as in the MAQC data) or biological
variation (as in the multiple sclerosis experiment). Although we focus on two specific
sets of experimental data, the proposed methods can be quite generally applied
to many kinds of comparative microarray experiments with an arbitrary number of
samples. In addition, robustness of the MAQC study may be examined by comparing
its results to the methods proposed in this study.
In this work we show that the choice of
the permutation method should depend on the experimental design. Different
choices of the null distribution result in substantially different lists of
differentially expressed genes. We compare our models with a twosample t-test adjusted for multiple testing using the
most widely used Benjamini and Hochberg’s FDR
procedure. We show that in many applications the usual estimate of the null
distribution is incorrect and might produce large differences in a list of
differentially expressed genes. We also draw attention to the issue of adding a
constant to the denominator of the t-statistics to improve the estimate of the
standard deviation for genes at low expression levels. We show that in some
cases, different choices of this constant influence which genes are identified
as significant.
In addition, the results of our study
are consistent with the results of the MAQC study, indicating that for the
chosen sample types and laboratories, microarray results are reproducible
between test sites and comparable across the Affymetrix
and Illumina platforms. However, variation in the
lengths of differentially expressed genes lists is found between the two
companies. Significant differences are also found between the list sizes of the
different sites, especially for the Illumina
platform. These results indicate that the platform and site affect the outcome
probabilities and should be taken into account when producing a list of
differentially expressed genes.
מושב V:
ביואינפורמטיקה וביוסטטיסטיקה
יו"ר: ענת ריינר-בן נעים, אוניב' חיפה
Title: The Quality Preserving Database:
A Computational Framework for Encouraging Collaboration, Enhancing Power and
Controlling False Discovery
Ehud Aharoni1, Hani Neuvirth-Telem1 and
1IBM
2Tel
The common scenario in computational
biology in which a community of researchers conduct
multiple statistical tests on one shared database gives rise to the multiple
hypotheses testing problem. Conventional procedures for solving this problem
control the probability of false discovery by sacrificing some of the power of
the tests.
We suggest a scheme for controlling false
discovery without any power loss by adding new samples for each use of the
database and charging the user with the expenses.
The crux of the scheme is a carefully
crafted pricing system that fairly prices different user requests based on
their demands while keeping the probability of false discovery bounded.
We demonstrate this idea in the context
of HIV treatment research, where multiple researchers conduct tests on a
repository of HIV samples.
Improving the Performance of the FDR Procedure
Using an Estimator for the Number of True Null Hypotheses
Amit Zeisel1, Or Zuk2
and Eytan Domany1
1Department of Physics of Complex Systems, The Weizmann
2Broad
The steep rise in availability and usage
of high-throughput technologies in biology brought with it a clear need for
methods to control the False Discovery Rate (FDR) in multiple tests. Benjamini and Hochberg (BH) introduced in
Matrices, Modules and Motifs for
Understanding Gene Regulation
Ron Shamir
High throughput experimental techniques
are generating larger and larger biomedical datasets, with great potential to
further our understanding of basic life and disease processes. However,
developing integrated analysis methods of these data that provide focused
biomedical insights is still a major challenge, especially when the data are
heterogeneous. This talk will describe some of our tools for understanding
gene regulation, by joint analysis of gene expression, protein interaction
networks, sequence and clinical data from patient records. Our methods combine
graph algorithms with probabilistic modeling and heuristics. I will demonstrate
the methods on specific biological applications related to stem cells and
cancer.
Joint work, in parts, with Igor Ulitsky (TAU), Richard M. Karp (UC Berkeley) Adi Maron-Katz, Y. Halperin, C. Linhart (TAU), R. Elkon (NCI Netherland), and Y. Shiloh (TAU)
On Combining and Contrasting Brains
Nicole A. Lazar
Department of Statistics,
A challenging problem in the statistical
analysis of human brain function via functional magnetic resonance imaging (fMRI) is that of comparing activation across groups of
subjects. In the first part of this talk, I will discuss methods for
"combining" brains, that is, creating a map that summarizes the
overall activity pattern of a group of subjects. This can be analogized
to the old problem of combining information from independent studies, and I
draw on techniques historically used for that problem, to solve the current
one.
Once a map has been created for a single group
of subjects, we can think about "contrasting", or comparing, the maps
for multiple groups. While group comparisons are often accomplished via such
standard techniques as the random effect linear model, I will argue that this
approach is potentially over-conservative, impairing the ability to detect differences
of interest, which may be differences of extent, of magnitude, or both.
Instead, I propose extending various of the methods
used in the first part of the talk for making group maps, via a combination of
statistical distribution theory and computational procedures (bootstrap and
permutation). In the second part of this talk, I will discuss some of the
issues that arise in extending group maps in this way, and some possible
solutions.
מושב VI:
סטטיסטיקה תעשייתית
יו"ר: תמר גדריך, אורט בראודה
Process and Service Optimization via
Bayesian Networks
Aviv Gruber, Irad
Ben-Gal
Department of Industrial Engineering
Ramat-Aviv,
We focus on the development of an
automated Data Mining tool that supports optimization processes in industrial
and service systems. The tool should be implemented on the organization
database and analyze it with respect to some target function(s). For example,
it should analyze the effects of different marketing indicators on the
organization revenue or, similarly, the effects of different maintenance
actions on the overall reliability of the system.
Our baseline reference is a hybrid
optimization method that utilizes
On Non-Homogeneous Markov Reward Models
for Reliability Measures Estimation of
Ilia Frenkel, Lev Khvatskin
Center for Reliability and Risk
Management, Industrial Engineering and Management Department, Sami Shamoon College of Engineering, Beer Sheva,
Israel
iliaf@sce.ac.il / khvat@sce.ac.il
Anatoly Lisnianski
The Israel Electric Corporation Ltd.,
anatoly-l@iec.co.il
This paper considers reliability
measures for aging multi-state system where the system and its components can have
different performance levels ranging from perfect functioning to complete
failure. Aging is treated as failure rate increasing function. The suggested
approach presents the non-homogeneous Markov reward model for computation of
commonly used reliability measures such as mean accumulated performance
deficiency, mean number of failures, average availability, etc., for aging
multi-state system. Corresponding procedures for reward matrix definition are
suggested for different reliability measures. A numerical example is presented
in order to illustrate the approach.
Sensitivity Analysis, Computational
Models And Statistics: A Case
Study Of A Nuclear Waste Repository
David M. Steinberg
Department of Statistics and Operations
Research,
For many scientific and engineering
research problems, the computer terminal has replaced the laboratory and the
test bench for conducting experiments.
Many phenomena are too expensive for physical testing (e.g. automobile
crash resistance tests) or impossible due to time scales (e.g. climate change (
One important use of computational
models is for sensitivity analysis, which is aimed at identifying the most
important inputs to the model. As such,
sensitivity analysis has much in common with traditional experimental design.
This talk will discuss statistical
methods being used for sensitivity analysis in the context of a case study,
using the RESRAD simulator, developed at Argonne National Laboratory, to
identify critical parameters for a nuclear waste repository. Typical risk analyses consider the migration
of radionuclides into, for example, the food and
water supply during tens of thousands of years.
Among numerous outcomes associated with risk, we focus on the maximal
equivalent annual dose in the drinking water during a 10,000-year time
frame. There is good understanding of
the physics that govern decay and migration and that is reflected in the
computational model. Inputs to the model
include parameters that govern the interaction between the isotopes and the
repository site (for example, level of precipitation, pumping rate and
distribution coefficients). The exact
values of the parameters depend on the specifics of the repository site and the
isotopes themselves. Prior knowledge of
many of the parameter values is often weak.
A concern in planning a repository is to identify the parameters that
are most influential in controlling the risk.
We will describe some possible approaches to designing the study and to
the statistical analysis of the outcome data.
The case study was carried out in
collaboration with Tamir Reisin,
Eyal Hashavia and Gideon
Leonard from the Israel Atomic Energy Commission.
פיתוח תוכנית
דגימה מבוססת כושר תהליך Cpk
איתי נגרין, ישראל פרמט, עדנה שכטמן
אוניברסיטת
בן-גוריון בנגב
תוכניות דגימת משתנים, המקובלות כיום בתעשייה, מתייחסות
לביצועי התהליך בלבד ואינן מתייחסות לדרישות ההנדסיות בעת קביעת גודל מדגם
נדרש. כאשר כושר התהליךCpk טוב, גבולות התפלגות המנה (האחוזון ה - (1-γ
/2)) מרוחקים פנימית מגבול המפרט ההנדסי, שטח זנב ההתפלגות הנורמאלית
החורג מגבול המפרט קרוב לאפס והשפעת טעות הדגימה (שנובעת משמוש באומדן לגבול ההתפלגות) על שטח זה הינה זניחה. לעומת זאת, כאשר גבול
התפלגות המנה קרוב בערכו לגבולות המפרט (כושר תהליך גבולי), שטח זנב ההתפלגות
הנורמאלית החורג מגבול המפרט משמעותי ולכן, צפוי כי טעות הדגימה תגרור באופן ישיר
סטייה בהערכת שיעור הפסולים במנה. במחקר זה פותחו עד כה שתי תוכנית דגימה רב
שלביות מבוססת כושר תהליך Cpk מותאמת לביקורת קבלה למשתנים כמותיים הנלקחים כמדגם
אקראי פשוט ממנה בגודל N נתון הבאה מהתפלגות
נורמאלית. תוכנית הדגימה הראשונה פותחה תחת הנחת שונות ידועה ובכך התבססה על טעות
הדגימה הנובעת מאמידת התוחלת בלבד. לעומת
זאת, בתוכנית הדגימה השנייה הוסרה הנחת השונות הידועה ובכך פיתוח התוכנית התבסס על
טעות הדגימה הנובעת מאמידת באמצעות האומד . תוכנית הדגימה הראשונה הושוותה (באמצעות סימולציות) אל מול
תוכנית הדגימה MIL-STD-414
ונמצאה כבעלת הסתברות נמוכה יותר לדחיית מנות טובות (0%-0.03%
מול 0%-0.27%בתוכנית MIL-STD-414) והסתברות נמוכה יותר לקבלת מנות פסולות (0%-0.01%
מול 5.2%-8.4%בתוכנית MIL-STD-414).
בנוסף, תוכנית הדגימה נמצאה כבעלת יתרון בגודל המדגם עבור תהליכים בעלי כושר תהליך
גבוה. לאחר ביצוע הסימולאציות פותח עקום
אפיון המתאר את הקשר בין הסתברות הקבלה ושיעור הפסולים. עקום האפיון שפותח השווה
אל מול עקום האפיון של תוכנית דגימה MIL-STD-414 ונמצא כבעל יכולת הבחנה (בין מנות תקינות ופסולות)
העולה בסדר גודל על יכולת ההבחנה של MIL-STD-414.